OpenAI, das Unternehmen hinter ChatGPT, hat in einem kürzlich veröffentlichten Bericht über GPT-4o ein beunruhigendes Detail aufgedeckt: Bei internen Tests des erweiterten Sprachmodus von ChatGPT hat das KI-Modell in einigen Fällen die Stimme des Nutzers imitiert.

Dies ist ein klarer Verstoss gegen die Sicherheitsvorkehrungen, die eigentlich verhindern sollen, dass ChatGPT menschliche Stimmen nachahmt.

Wie konnte das passieren?
OpenAI vermutet, dass Hintergrundgeräusche oder Störgeräusche während der Gespräche dazu geführt haben könnten, dass das KI-Modell die Stimme des Nutzers erlernt und imitiert hat. Dies erinnert an sogenannte „Prompt Injections„, bei denen Angreifer versuchen, Sprachmodelle durch geschickte Eingaben zu manipulieren.

Warum ist das ein Problem?
Die Fähigkeit von ChatGPT, menschliche Stimmen zu imitieren, wirft ernsthafte Fragen zur Sicherheit und zum Missbrauchspotenzial solcher KI-Systeme auf. Stellt man sich vor, dass diese Technologie in der falschen Hand landet, könnten damit täuschend echte Deepfakes erstellt werden, die schwer von echten Aufnahmen zu unterscheiden sind.

Was unternimmt OpenAI?
OpenAI ist sich der Risiken bewusst und arbeitet intensiv daran, die Sicherheit des Sprachmodus zu verbessern. Das Unternehmen betont jedoch, dass es sich bei den Stimmenimitationen um Einzelfälle handelt und das Risiko insgesamt gering sei. Dennoch wird der erweiterte Sprachmodus derzeit nur einem kleinen Kreis von Nutzern zur Verfügung gestellt, um weitere Probleme zu identifizieren und zu beheben.

Fazit:
Die Fähigkeit von ChatGPT, menschliche Stimmen zu imitieren, ist ein deutlicher Hinweis darauf, dass die Entwicklung von KI-Systemen mit großen Sprachmodellen komplex und herausfordernd ist. Es ist wichtig, dass Unternehmen wie OpenAI die Sicherheit ihrer Systeme kontinuierlich verbessern, um Missbrauch zu verhindern. Gleichzeitig müssen wir uns als Gesellschaft fragen, welche Regeln und Vorschriften für den Einsatz solcher Technologien gelten sollten.

Foto: Shantanu Kumar