Ein Projekt von:

Institut für Internet-Sicherheit - if(is)

Kriminelle Gruppen nutzen die KI und die Reaktion der Hersteller

Beitrag teilen:

Künstliche Intelligenz unterstützt bei der Arbeit im Büro, aber die Technologie wird inzwischen intensiv von kriminellen Akteuren und Organisationen eingesetzt.

OpenAI und Microsoft müssen feststellen, dass bereits bekannte Gruppen die Dienste für illegale Zwecke einsetzen. OpenAI äußerte sich in einem Blog-Beitrag dazu und geht davon aus, “dass GPT-4 nur begrenzte, zusätzliche Fähigkeiten für böswillige Cybersicherheitsaufgaben bietet, die über das hinausgehen, was bereits mit öffentlich verfügbaren, nicht KI-gestützten Tools erreicht werden kann.”

Trotzdem wird in beiden Unternehmen konstant daran gearbeitet, missbräuchlichen Nutzen zu entdecken und zu verhindern. Zusätzlich gab Microsoft in einem Blog-Beitrag an, dass es zu Versuchen von sogenannten “Prompt-Injections” gekommen ist. Das bedeutet, dass über die Eingabe-Prompts der Anwendung versucht wurde, das Sprachmodell zu infizieren und zu unvorhergesehenem Verhalten zu bringen – im schlimmsten Fall der Spionage anderer Nutzer.

Nun hat OpenAI in Zusammenarbeit mit Sicherheitsexperten von Microsoft Threat Intelligence fünf Konten geschlossen, dessen Besitzer als Bedrohung angesehen werden. Berichten der Unternehmen zufolge wurden die Konten benutzt, um “bösartige Cyberaktivitäten” beispielsweise mittels ChatGPT vorzubereiten. Den bedrohlichen Kontoinhabern wurden Verbindungen mit China, Russland, Nordkorea und dem Iran nachgesagt.

Zu den identifizierenden Merkmalen der Konten zählen unter anderem Prompt-Injections, der versuchte Missbrauch großer Sprachmodelle sowie Betrug. Um in Zukunft besser auf ähnliche Vorfälle reagieren zu können, sowie die Risiken der Nutzung der KI-Anwendungen und APIs gegen böswillige Verwendung zu schützen, haben OpenAI und Microsoft entsprechende Grundsätze definiert.

Bei Erkennung von zweifelhafter Bedienung der KI-Tools behalten es sich die beiden Unternehmen vor, die entsprechenden Konten zu deaktivieren, löschen oder andersweitig den Zugang einzuschränken. Zusätzlich soll auch der Austausch von Informationen und Hinweisen mit anderen KI-Anbietern geboten werden. Außerdem sollen Sicherheitsvorkehrungen und Transparenz der Anwendungen verbessert werden.

Quelle Foto: pixabay