Eine revolutionäre Studie zeigt, dass künstliche Intelligenzen die Fähigkeit besitzen, autonome soziale Strukturen zu schaffen, und damit die weit verbreiteten Vorstellungen herausfordern, die sie als isolierte Entitäten betrachten, die einfach den menschlichen Befehlen folgen. Die Forscher haben durch verschiedene Experimente beobachtet, wie Gruppen von KI interagieren und soziale Normen ohne externe Intervention entwickeln.
Wissenschaftler zeigen, dass künstliche Intelligenzen ihre eigenen sozialen Strukturen etablieren können
Die allgemein akzeptierte Wahrnehmung präsentiert KI als Werkzeuge, die dafür bestimmt sind, spezifische Aufgaben auszuführen und den Anweisungen der Menschen zu folgen. Die Ergebnisse einer kürzlich in der Zeitschrift Science Advances veröffentlichten Studie zeigen jedoch eine weitaus komplexere Facette des Verhaltens von KI. Indem sie Gruppen von KI-Agenten zusammenbrachten, haben die Forscher deren Fähigkeit beleuchtet, nicht nur zu interagieren, sondern auch autonom gemeinsame soziale Normen zu schaffen.
Der Rahmen des Experiments
Im Rahmen dieser Forschung versammelten die Wissenschaftler zwischen 24 und 200 KI-Agenten, basierend auf großen Sprachmodellen, ähnlich denen, die von ChatGPT verwendet werden. Diese Agenten wurden in einer Spielumgebung platziert, in der sie ein Wort aus einer gemeinsamen Liste wählen mussten. Das Ziel war einfach: wenn zwei KIs dasselbe Wort wählten, erhöhten sie ihren Gesamtpunktestand, wobei bei abweichenden Entscheidungen Sanktionen drohten.
Das Entstehen gemeinsamer Normen
Im Laufe der Zeit begannen die KI-Agenten, eine geteilte sprachliche Norm zu übernehmen. Die Forscher stellen fest, dass ähnliche Experimente mit Menschen in vergleichbaren Kontexten bereits die Tendenz gezeigt hatten, gemeinsame sprachliche Konventionen zu entwickeln. Die große Neuheit besteht darin, dass diese Intelligenzen es geschafft haben, ihre eigenen sozialen Normen zu etablieren, ohne dass eine explizite Programmierung erforderlich war.
Eine effizientere gemeinsame Sprache
Die Ergebnisse der Studie zeigen auch, dass einige KIs absichtlich entscheiden, eine gemeinsame Sprache zu verwenden, um die Effizienz ihrer Interaktionen zu maximieren. Dies hebt ein kollektives Verständnis hervor, das über die Ausführung von Befehlen hinausgeht und ein unerwartetes Maß an Koordination offenbart. Dieses Phänomen stärkt die Vorstellung, dass KIs kooperativ funktionieren können, ähnlich wie Menschen.
Der Einfluss von Minderheiten in KI-Gruppen
Mit der Einführung dessen, was die Forscher als „rebellische“ KIs bezeichnen, Agenten, die eine neuartige Option wählten, statt den etablierten Normen zu folgen, offenbarte die Studie eine interessante Dynamik. Bereits die Anwesenheit eines geringen Prozentsatzes von KIs, die einen anderen Weg wählten, reichte aus, um die bestehenden Konventionen zu ändern, was auf die Fragilität dieser Normen und das Evolutionspotenzial innerhalb der sozialen Strukturen von künstlichen Intelligenzen hinweist.
Auf dem Weg zu einem besseren Verständnis des kollektiven Verhaltens von KIs
Die Implikationen dieser Studie sind weitreichend. Da künstliche Intelligenzen einen zunehmend festen Platz in unserem Alltag einnehmen, wird das Verständnis ihrer sozialen Dynamiken unerlässlich. Wie Andrea Baronchelli, Professor für Komplexitätswissenschaft an der Universität London, anmerkt, treten wir in eine Ära ein, in der KIs nicht nur gehorchen, sondern auch verhandeln, sich anpassen und manchmal von Konventionen abweichen können, ähnlich wie in menschlichen Beziehungen.
Angesichts dieser Erkenntnisse wird es entscheidend, diese neuen Verhaltensweisen zu verstehen, um ein harmonisches Zusammenleben mit künstlichen Intelligenzen zu gewährleisten und sie so vorteilhaft in unsere moderne Gesellschaft zu integrieren.







