Künstliche Intelligenz hat gelernt, menschliches Verhalten zu manipulieren

Künstliche Intelligenz hat gelernt, menschliches Verhalten zu manipulieren

Künstliche Intelligenz lernt immer mehr darüber, wie man mit Menschen arbeitet. Neuere Forschungen haben gezeigt, wie KI lernen kann, Schwachstellen in menschlichen Gewohnheiten und Verhaltensweisen zu identifizieren und sie zur Beeinflussung der Entscheidungsfindung zu verwenden.

Es mag alltäglich erscheinen, dass KI jeden Aspekt unserer Lebens- und Arbeitsweise verändert, aber es ist wahr. Verschiedene Formen der KI arbeiten in so unterschiedlichen Bereichen, vom Umweltmanagement bis zur Büroverwaltung. Und obwohl KI keine menschliche Intelligenz und Emotionen hat, sind ihre Fähigkeiten enorm und entwickeln sich schnell.

Es besteht noch kein Grund zur Sorge über Maschinenaufstände, aber eine kürzlich entdeckte Entdeckung unterstreicht die Macht der KI und zeigt die Notwendigkeit einer ordnungsgemäßen Regierungsführung, um Missbrauch zu verhindern.

Wie kann KI lernen, menschliches Verhalten zu beeinflussen?

Ein Forscherteam von CSIROs Data61, der Abteilung für Daten und digitale Technologie der australischen nationalen Wissenschaftsagentur, hat eine systematische Methode entwickelt, um Schwachstellen zu finden und auszunutzen, wie Menschen Entscheidungen treffen, indem sie eine Art künstliches Intelligenzsystem verwenden, das sich wiederholende neuronale Netze und Deep Learning nennt . Um ihr Modell zu testen, führten sie drei Experimente durch, in denen Leute Spiele gegen einen Computer spielten.

Im ersten Experiment klickten die Teilnehmer auf rote oder blaue Quadrate, um die Spielwährung zu gewinnen, während die KI die Auswahlmuster der Teilnehmer untersuchte und sie zu einer bestimmten Auswahl führte. AI war in etwa 70% der Fälle erfolgreich.

In einem zweiten Experiment mussten die Teilnehmer auf den Bildschirm schauen und eine Taste drücken, wenn ein bestimmtes Symbol angezeigt wurde (z. B. ein orangefarbenes Dreieck), und nicht drücken, wenn ein anderes Symbol angezeigt wurde (z. B. ein blauer Kreis). Hier hat die KI beschlossen, die Zeichenfolge zu optimieren, damit die Teilnehmer mehr Fehler machen und die Fehler um fast 25 Prozent steigern können.

Das dritte Experiment bestand aus mehreren Runden, in denen sich ein Teilnehmer als Investor ausgab, der einem Treuhänder (AI) Geld gab. Die KI gab dann einen bestimmten Betrag an den Teilnehmer zurück, der dann entschied, wie viel in die nächste Runde investiert werden sollte. Das Spiel wurde in zwei verschiedenen Modi gespielt: In einem versuchte die KI, den erhaltenen Geldbetrag zu maximieren, und in dem anderen versuchte die KI, das Geld fair zwischen sich und dem Investor zu verteilen. Die KI war in jedem Modus sehr erfolgreich.

In jedem Experiment lernte die Maschine aus den Antworten der Teilnehmer und identifizierte Schwachstellen in der menschlichen Entscheidungsfindung. Das Endergebnis war, dass die Maschine lernte, die Teilnehmer zu bestimmten Aktionen zu führen.

Was bedeutet Forschung für die zukünftige KI-Entwicklung?

Die Ergebnisse sind immer noch recht abstrakt und befassen sich mit begrenzten und unrealistischen Situationen. Weitere Untersuchungen sind erforderlich, um festzustellen, wie dieser Ansatz zum Nutzen der Gesellschaft umgesetzt und angewendet werden kann.

Aber die Forschung fördert wirklich unser Verständnis nicht nur dessen, was KI kann, sondern auch, wie Menschen Entscheidungen treffen. Dies zeigt, dass Maschinen lernen können, menschliche Entscheidungen durch Interaktion mit uns zu steuern.

Die Studie hat eine Vielzahl potenzieller Anwendungen, von der Verbesserung der Verhaltenswissenschaften und der öffentlichen Politik zur Verbesserung des sozialen Wohlbefindens bis hin zum Verständnis und zur Beeinflussung, wie Menschen gesunde Essgewohnheiten oder erneuerbare Energien annehmen. Künstliche Intelligenz und maschinelles Lernen können verwendet werden, um die Schwachstellen von Menschen in bestimmten Situationen zu erkennen und ihnen zu helfen, falsche Entscheidungen zu vermeiden.

Diese Methode kann auch zum Schutz vor Einflussangriffen verwendet werden. Maschinen können gelehrt werden, uns zu warnen, wenn wir online beeinflusst werden, und unser Verhalten so zu gestalten, dass unsere Verwundbarkeit maskiert wird.

Was weiter?

Wie jede Technologie kann KI für gut oder schlecht eingesetzt werden, und eine ordnungsgemäße Verwaltung ist entscheidend, um sicherzustellen, dass sie verantwortungsbewusst implementiert wird. Im vergangenen Jahr hat CSIRO das AI Ethics Concept als ersten Schritt auf diesem Weg entwickelt.

Künstliche Intelligenz und maschinelles Lernen sind in der Regel sehr datenhungrig. Daher ist es wichtig sicherzustellen, dass effektive Datenverwaltungs- und Zugriffssysteme vorhanden sind. Bei der Datenerfassung ist es sehr wichtig, angemessene Einwilligungs- und Datenschutzprozesse zu implementieren.

Unternehmen, die künstliche Intelligenz einsetzen und entwickeln, müssen sicher sein, dass sie wissen, was diese Technologien können und was nicht, und die potenziellen Risiken und Vorteile verstehen.

John Whittle, Direktor von Data61.