Neueste Forschungen haben gravierende Sicherheitslücken in den Plugins von ChatGPT aufgedeckt, die Bedenken hinsichtlich möglicher Datenverletzungen und der Übernahme von Benutzerkonten aufwerfen. Diese Schwachstellen könnten es Angreifern ermöglichen, Kontrolle über organisatorische Konten auf Drittanbieterplattformen zu erlangen und auf sensible Benutzerdaten zuzugreifen, einschließlich persönlich identifizierbarer Informationen (PII).
Darren Guccione, CEO und Mitbegründer von Keeper Security, weist darauf hin, dass die in ChatGPT-Plugins gefundenen Sicherheitslücken ein erhebliches Risiko für Organisationen darstellen, da Mitarbeiter oft sensible Daten, darunter geistiges Eigentum und Finanzinformationen, in KI-Tools eingeben. Ein unbefugter Zugriff auf solche Daten könnte schwerwiegende Folgen für Unternehmen haben.
Im November 2023 führte ChatGPT eine neue Funktion namens GPTs ein, die ähnlich wie Plugins funktionieren und ähnliche Sicherheitsrisiken bergen, was die Situation weiter verkompliziert.
Das Forschungsteam von Salt Security identifizierte kürzlich drei Haupttypen von Sicherheitslücken in den ChatGPT-Plugins. Erstens wurden Mängel im Installationsprozess der Plugins gefunden, die es Angreifern ermöglichen könnten, schädliche Plugins zu installieren und Benutzernachrichten mit proprietären Informationen abzufangen.
Zweitens wurden Schwachstellen in PluginLab, einem Framework für die Entwicklung von ChatGPT-Plugins, entdeckt, die zu Übernahmen von Benutzerkonten auf Drittplattformen wie GitHub führen könnten.
Drittens wurden OAuth-Umleitungsmanipulations-Schwachstellen in mehreren Plugins identifiziert, die es Angreifern ermöglichen, Benutzeranmeldeinformationen zu stehlen und Konten zu übernehmen.
Yaniv Balmas, Vizepräsident für Forschung bei Salt Security, betont die wachsende Beliebtheit generativer KI-Tools wie ChatGPT und die entsprechende Zunahme von Bemühungen von Angreifern, diese Tools auszunutzen, um auf sensible Daten zuzugreifen.
Nach koordinierten Offenlegungspraktiken arbeiteten Salt Labs mit OpenAI und Drittanbietern zusammen, um diese Probleme umgehend zu adressieren und das Risiko einer Ausnutzung zu verringern.
Sarah Jones, Forschungsanalystin für Cyber-Bedrohungsaufklärung bei Critical Start, skizziert mehrere Maßnahmen, die Organisationen ergreifen können, um ihre Verteidigung gegen diese Schwachstellen zu stärken:
- Einführung einer installationsbasierten Berechtigung: Dies gewährleistet, dass nur autorisierte Benutzer Plugins installieren können, was das Risiko verringert, dass bösartige Akteure schädliche Plugins installieren.
- Einführung einer Zwei-Faktor-Authentifizierung: Durch die Anforderung an Benutzer, zwei Formen der Identifikation bereitzustellen, können Organisationen eine zusätzliche Sicherheitsebene für ihre Konten hinzufügen.
- Schulung der Benutzer im Umgang mit Code und Links: Es ist entscheidend, Mitarbeiter darauf zu schulen, vorsichtig zu sein, da diese oft als Vektoren für Cyberangriffe verwendet werden.
- Ständige Überwachung der Plugin-Aktivität: Durch regelmäßige Überwachung können Organisationen ungewöhnliches Verhalten oder unbefugte Zugriffsversuche rechtzeitig erkennen.
- Abonnieren von Sicherheitshinweisen für Updates: Durch das Informieren über Sicherheitshinweise und Updates können Organisationen Schwachstellen zeitnah angehen und Patches anwenden.
Angesichts der zunehmenden Abhängigkeit von KI-Technologien wird es entscheidend, die damit verbundenen Sicherheitsrisiken effektiv anzugehen und zu mildern.