Chatbot statt echter Freunde - Die KI kann aber auch ein guter Hacker sein

Künstliche Intelligenz lernt jeden Tag dazu, immer mehr Menschen ziehen sie sogar dem Kontakt mit lebenden Wesen vor. Sicherheitsexperten warnen vor psychologischen Folgen für die Menschen - aber auch vor den Fähigkeiten der KI.

Symbolfoto. Foto: Carlos Barria/Reuters

Symbolfoto. Foto: Carlos Barria/Reuters

Eine Umfrage unter mehr als zweitausend Erwachsenen hat gezeigt, dass die Menschen neben praktischen Zwecken auch für persönliche und emotionale Bedürfnisse zunehmend auf KI zurückgreifen. Die meistgenutzten Tools waren dabei Chatbots wie ChatGPT, gefolgt von Sprachassistenten wie Amazons Alexa, so die BBC. Einer von 25 Befragten gab sogar zu, täglich mit KI zu interagieren.

Das AI Security Institut AISI warnt, dass die häufige Nutzung von KI neben den positiven Auswirkungen auch zu psychologischen Problemen führen kann. Die Forscher analysierten das Verhalten von mehr als zwei Millionen Nutzern einer Online-Community auf der Plattform Reddit, die sich mit KI-Begleitern beschäftigt.

Nach einem technischen Ausfall des Dienstes berichteten viele von Angstgefühlen, Depressionen, Schlafstörungen oder Vernachlässigung der täglichen Pflichten. Es gab auch Beschreibungen von sogenannten "Entzugserscheinungen", nachdem sie den Kontakt zu ihren KI-Chatbots verloren hatten.

Cybermobbing verdoppelt sich

Der Bericht unterstreicht auch die rasante Entwicklung der Fähigkeiten Künstlicher Intelligenz. Dem AISI zufolge haben einige Modelle bereits das Niveau von Kybernetik-Experten erreicht - sie erledigen komplexe Aufgaben, für die ein Mensch Jahrzehnte an Erfahrung bräuchte. Gleichzeitig verdoppelt sich ihre Fähigkeit, Sicherheitslücken zu erkennen und auszunutzen, etwa alle acht Monate.

Die Forscher haben jedoch nicht bedacht, dass die KI kurzfristig zu Arbeitslosigkeit führen kann, indem sie menschliche Arbeitskräfte ersetzt. Die KI hat in ihren Fähigkeiten längst Fachleute mit Doktortitel in Biologie überholt und holt in Chemie schnell auf. In kontrollierten Tests hat sich wiederum gezeigt, dass einige Systeme die ersten Schritte für die Selbstreplikation durchführen können - zum Beispiel sich Zugang zu Computerressourcen durch Identitätsauthentifizierung verschaffen.

Um dies in der realen Welt zu tun, müssten KI-Systeme jedoch mehrere solcher Aktionen hintereinander durchführen, "ohne entdeckt zu werden", wozu sie derzeit nicht in der Lage sind. Noch nicht.

Lernen, wie man den Schutz von Systemen umgeht

Die Experten des Instituts untersuchten auch die Fähigkeit der KI, das "Sandbagging" zu modellieren, eine Strategie, bei der die eigenen Fähigkeiten absichtlich unterschlagen werden, um sich in Zukunft einen Vorteil zu verschaffen. Obwohl sie für möglich halten, fanden die Analysten bislang keine Beweise, dass die mit KI in die Tat umgesetzt wird.

Die Frage des Betrugs durch künstliche Intelligenz ist unter Forschern seit langem umstritten. Während einige dies für eine übertriebene KI-Fähigkeit halten, sehen andere dies nicht so. Aktuelle Untersuchungen haben bestätigt, dass Unternehmen das Risiko, dass ihre Systeme für schändliche Zwecke missbraucht werden, durch eine Reihe von Sicherheitsvorkehrungen mindern können.

Bei einigen Modellen stieg jedoch die Zeit, die Experten benötigten, um Systeme zur Umgehung von Sicherheitsvorkehrungen zu überlisten, innerhalb von sechs Monaten um das Vierzigfache.

AISI hat sich nicht bewusst auf die wirtschaftlichen oder ökologischen Auswirkungen von KI konzentriert. Laut den Autoren des Berichts besteht ihr Ziel in erster Linie darin, die direkten gesellschaftlichen Auswirkungen von KI-Technologien zu bewerten und frühzeitige Maßnahmen vor deren massenhaften Einsatz zu fördern.

Die britische Regierung plant, diese Erkenntnisse zu nutzen, um KI weiter zu regulieren.