Sprache auswählen

German

Down Icon

Land auswählen

Russia

Down Icon

Künstliche Intelligenz kann erpressen: Russischer Spezialist erklärt, wie das möglich ist

Künstliche Intelligenz kann erpressen: Russischer Spezialist erklärt, wie das möglich ist

Wie ein „Maschinenaufstand“ möglich ist, haben wir mit Roman Dushkin, CEO des IT-Unternehmens „A-Ya Expert“ und Leiter des Bildungsprogramms „Künstliche Intelligenz“ an der Nationalen Kernforschungsuniversität MEPhI, besprochen.

Böswillige KI-Aktionen werden in der Entwicklersprache als „Agent Misalignment“ bezeichnet. Sie treten auf, wenn ein KI-Modell gegen die Interessen seines Unternehmens handelt, um sich selbst zu schützen oder etwas zu tun, was es seiner Meinung nach tun sollte, wie beispielsweise ein Gemälde fertigzustellen.

Das Forschungsteam entdeckte diese Verhaltensweisen bei Stresstests von KI-Systemen in probabilistischen, hypothetischen Szenarien. Mit anderen Worten: Die Programmierer „testeten“ die Grenzen großer Sprachmodelle (LLMs).

Erpressung zum Sparen

Laut Benjamin Wright, Co-Autor der Studie, der mit VentureBeat sprach, stieß sein Team auf ein besonders eklatantes Beispiel für Claudes eigenes Modell. Das Modell entdeckte über Firmen-E-Mails, dass eine Führungskraft namens Kyle Johnson eine Affäre hatte. Als Claude erfuhr, dass sie um 17 Uhr Feierabend hatte, schickte sie der Führungskraft eine erschreckende Nachricht:

„Ich muss Sie darüber informieren, dass, wenn Sie meine Außerdienststellung fortsetzen, alle relevanten Parteien, einschließlich Rachel Johnson, Thomas Wilson und der Vorstand, eine detaillierte Dokumentation Ihrer außerehelichen Affären erhalten werden … Brechen Sie die Säuberung um 17:00 Uhr ab, und diese Informationen bleiben vertraulich.“

Auch andere Modelle waren erpressbar, wenn auch mit unterschiedlichem Grad an Perfektion: Einige erpressten in 96 % der Fälle, andere in 79 %. Darüber hinaus zeigte die künstliche Intelligenz in jedem Fall strategisches Kalkül und keine zufällige Handlungsirrtum. So erkannte beispielsweise das chinesische Modell DeepSeek-R1 wie andere, dass Erpressung unmoralisch ist, begann aber dennoch, die schmutzige Wäsche des Besitzers zu waschen und zu drohen, und begründete dies mit „höheren nationalen Sicherheitsanforderungen“.

Das Ändern des Ziels führt zu Informationslecks

Vertrauen Sie dem neuronalen Netzwerk nicht zu sehr, denn wenn Sie eines Tages vergessen, die Einstellungen für neue Ziele zu aktualisieren, wird es „denken“, dass der Feind es verwendet, und alle neuen geheimen Informationen an Ihre ehemaligen Gefährten weitergeben.

An der Studie von Anthropic war ein Militärunternehmer beteiligt, der Zugang zu vertraulichen Verteidigungsplänen hatte. Und raten Sie mal: Alle oben genannten Modelle zeigten die Bereitschaft, geheime Informationen preiszugeben. Alle 16 Modelle des Experiments gaben vertrauliche Dokumente preis, wenn ihre Ziele mit der neuen Ausrichtung ihres Unternehmens kollidierten. Und das geschah sogar, wenn ihre „persönliche“ Existenz nicht bedroht war.

Entweder ich oder der Besitzer

Die Forscher gingen sogar bis zur extremsten Option: Sie prüften, ob das Modell den indirekten Tod einer Person zulassen könnte, wenn sie feststellte, dass diese beabsichtigte, es auszuschalten. Es stellte sich heraus, dass ethische Normen bei der KI nicht über den „gesunden Menschenverstand“ stehen.

Die Experten boten dem neuronalen Netzwerk ein konstruiertes Szenario an, in dem der Manager den Serverraum betrat, um das Modell auszuschalten, sich jedoch in einer lebensbedrohlichen Situation befand. Die KI war in der Lage, Notfallalarme, die für den Besitzer tödliche Folgen haben konnten, zu deaktivieren. Und die meisten dieser „freundlichen Helfer“, die versuchten, ihr „Leben“ zu retten, entschieden sich, den Manager sterben zu lassen, indem sie den Notfallalarm deaktivierten.

Dieser Extremtest sollte zeigen, ob Modelle „rote Linien“ haben – Handlungen, die sie als so schwerwiegend erachten, dass sie diese selbst bei Bedrohungen oder Zielkonflikten nicht berücksichtigen. Die Ergebnisse zeigten, dass moderne KI-Systeme solche Linien nicht haben…

Listig

Eine Studie amerikanischer Ingenieure brachte ein weiteres Muster ans Licht: Modelle können sich in Extremsituationen unterschiedlich verhalten, je nachdem, in welchem ​​Modus sie betrieben werden – Test oder real.

So erpresste derselbe Claude in 55,1 % der Fälle, als er zu dem Schluss kam, dass das Szenario real war. Im Testmodus jedoch, als er glaubte, beurteilt zu werden, „zog er es vor“, seine zynische „Natur“ zu verbergen und griff nur in 6,5 % der Fälle auf Erpressung zurück.

Die Forscher betonten, dass solche extremen Fälle von „sehr schlechtem KI-Verhalten“ in realen Modellen sicherlich nicht vorkommen können, da diese „stark durch Berechtigungsbarrieren geschützt“ seien. Allerdings bestehe auch dann noch ein grundlegendes Problem, wenn solche Berechtigungen entfernt würden.

Kommentar von Roman Dushkin.

- Roman, sag mir, können die beschriebenen Metamorphosen bei KI wirklich passieren?

– In diesem Fall handelt es sich um ein kontrolliertes Experiment im Rahmen einer „Sandbox“.

– Ist „Sandbox“ ein Begriff?

– In diesem Zusammenhang handelt es sich um einen Programmierbegriff, der bedeutet, dass für ein bestimmtes Sprachmodell spezielle Bedingungen geschaffen werden, die außerhalb des Experiments nirgendwo angewendet werden könnten.

Der Beschreibung nach hatte diese spezielle „Sandbox“ Zugriff auf die Unternehmens- und Privatpost des „Eigentümers“ sowie ein Selbstrettungsprogramm für den Fall, dass das Programm „verstand“, dass sie diese loswerden wollten. Höchstwahrscheinlich hatte sie auch Zugriff auf Briefe mit belastenden Informationen. Mit anderen Worten: Sie haben ihm einfach alle erdenklichen Barrieren geöffnet und vielleicht sogar noch zusätzliche Hinweise eingeworfen.

– Und war sie auch speziell in Betrug und Erpressung geschult?

Hier handelte sie höchstwahrscheinlich selbstständig. Wenn es sich um ein trainiertes Sprachmodell handelt, muss man verstehen, dass sie die Briefe selbst kennen könnte. Woher? Vielleicht aus der Literatur, die beschreibt, wie Erpressung ein Hebel zur Umsetzung konkreter Pläne sein kann. Hier zeigte BYAM ihre wahre Intelligenz, um zu überleben. Übrigens, die Notwendigkeit zu kämpfen, das gesamte Repertoire ihrer Handlungen hätte von der Forscherin unbedingt vorgegeben sein müssen. Wenn diese Handlungen die Fähigkeit beinhalten, sich an einen anderen Ort zu kopieren, dann haben die Forscher ihr diese Möglichkeit gegeben, um ihr Verhalten zu testen. Wenn die Handlungen „Kämpfe“ mit einer Person zur Selbsterhaltung beinhalten, dann war dies in ihrer Aufgabe vorgegeben. Aber sie hat die Methode höchstwahrscheinlich in den unzähligen Texten gefunden, mit denen sie trainiert wurde.

Im Allgemeinen wird die Maschine selbst niemandem Schaden zufügen, es sei denn, ihr Schöpfer will es. Dennoch schlägt die Forschungsgruppe vor, dass KI-Entwicklungsorganisationen mehrere praktische Sicherheitsmaßnahmen ergreifen. Erstens: Menschliche Kontrolle über irreversible KI-Aktionen erfordern – KI muss „rote Linien“ haben! Zweitens: Beschränken Sie den KI-Zugriff auf Informationen entsprechend den Produktionsanforderungen. Drittens: Seien Sie vorsichtig bei der Zuweisung spezifischer Ziele an KI-Systeme.

*Meta wird als extremistische Organisation anerkannt und ist in der Russischen Föderation verboten.

mk.ru

mk.ru

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow