Seitdem dieser Thread erstellt wurde, haben sich die Fähigkeiten der künstlichen Intelligenzen noch einmal dramatisch verbessert. An Universitäten herrscht "Panik", weil letztlich jeder "ChatGPT" verwenden kann für Essays usw. Kunstwerke von "Midjourney" bekommen Siegerpreise. Kann sich jeder denken, dass die Situation ernst ist, und KIs nun wirklich etwas drauf haben.
Bis zu einem Punkt kann das nützlich sein, aber gerade in einer kapitalistisch dominierten Gesellschaft ist es ein gefährliches Problem, wenn menschliche Arbeit und Talent mehr und mehr nicht mehr benötigt wird. Pferde brauchte man irgendwann ja auch nicht mehr, und insofern ist nicht garantiert, dass hier nun dafür jeweils andere Arbeitsplätze entstehen. Insofern kann es passieren, dass Kapitalisten und andere Akteure noch mächtiger werden, wenn sie sich künstlicher Intelligenz bedienen.
Zusätzlich könnten die KIs auch selber Probleme bereiten, wenn sie irgendwann (und wir sprechen keinesfalls notwendig über die ferne Zukunft) den Menschen überlegen werden. Soziales Verhalten ist über viele Generationen in der Evolution entstanden, und darüber hinaus sind wir quasi Serienmodelle, was ethischen Konsens vereinfacht. Es gibt keinen Grund anzunehmen, dass die KIs wirklich soziale Fähigkeiten besitzen müssen, um in Existenz zu kommen, und dass diese, wenn vorhanden, mit unserer Moral kompatibel ist.
Insofern könnten KIs also Menschen intellektuell überlegen werden, während sie gleichzeitig keine oder andere ethische Überzeugungen haben. Innerhalb einer Gesellschaft wo militärische und monetäre Interessen dafür sorgen könnten, dass aus Machtwillen und Geldgeilheit entsprechend Gefahren komplett ignoriert werden...
Dass KIs den Weltfrieden bringen sollen wäre naiv, und im Gegenteil sehe ich sie mit den Atomwaffen als größte Gefahr für unsere Existenz an, selbst wenn hier positive Einflüsse mehr als möglich sind. Ernsthaft, KIs sind cool, aber eher cool wie die Anatomie eines weißen Hais, die ihn zum Herrscher (von Orcas und Pottwalen abgesehen) der Meere macht.
Nun ist es so, dass es praktisch unmöglich ist die Büchse der Pandora wieder zu schließen, und ich hätte optimalerweise erwartet (ging schneller als gedacht) und gewünscht, dass das hier eben nicht so schnell geht.
Wir könnten schlicht nicht weit genug für KI sein in unserer eigenen Entwicklung.
Aus meiner Sicht würde ich quasi sagen wollen, dass wirkliche KI eventuell ok oder gut für den ist, der Weltfrieden erreicht hat, und exakt NICHT für den, der sich das wiederum (teils verzweifelt) von der KI erwünscht.
LG PsiSnake