Was du wissen musst
- Google beginnt damit, seine Mitarbeiter davor zu warnen, vertrauliche Unternehmensinformationscodes an seine eigene KI-Software program Bard zu übermitteln.
- Das Unternehmen macht sich zunehmend Sorgen über die Möglichkeit eines Datenlecks, da Informationen, die in den Bot gelangen, öffentlich bekannt werden könnten.
- Ähnliche Maßnahmen zur stärkeren Fokussierung auf Datenschutz und Sicherheit bei KI-Software program sind in der EU und bei Samsung aufgetaucht.
Obwohl Google sich bemüht, einen eigenen KI-Chatbot in seine Suchmaschine zu integrieren, versucht das Unternehmen nun, seine Mitarbeiter davon abzuhalten, ihn zu nutzen. Laut Reuters hat das in Mountain View ansässige Unternehmen seinen Mitarbeitern geraten, keine vertraulichen Materialien in den KI-Chatbot einzuschleusen. Alphabet hat diese Warnung auch auf Computercode ausgeweitet.
Google Bard kann Programmierern bei der Codierung helfen, aber wie das Unternehmen angibt, könne es zuweilen „unerwünschte“ Vorschläge liefern, teilte das Unternehmen Reuters mit. Darüber hinaus besteht aufgrund der Funktionsweise von Chatbots wie Bard die Möglichkeit eines Datenlecks. Nicht nur, dass ein Mensch Ihren Chat liest (aus irgendeinem Grund), sondern eine andere KI könnte diese Informationen als Teil ihres Lernprozesses nutzen und sie dann im Gegenzug für eine weitere Abfrage verteilen, erklärte Reuters. Dies wiederum würde es ermöglichen, dass hochsensible Daten öffentlich werden.
Das Unternehmen hat auf seiner Bard-FAQ-Seite eine Erklärung veröffentlicht, in der es den Nutzern mitteilt, „in ihren Bard-Gesprächen keine Informationen anzugeben, die zur Identifizierung von Ihnen oder anderen verwendet werden können“. Letztlich kann der Chatbot jedoch nicht nachvollziehen, wie vertrauliche Unternehmensinformationen oder Codes aussehen.
Google informierte Reuters auch über den aktuellen Stau in der EU, während es Fragen an die irische Datenschutzkommission richtete. Sie sind besorgt über die Auswirkungen von Bard auf die Privatsphäre der Nutzer, was andere Bedenken der Europäischen Kommission widerspiegelt.
Die Europäische Kommission und Google führen seit Mai Gespräche über die Ausarbeitung neuer Richtlinien für KI-Software program, die als „KI-Pakt“ bezeichnet werden. Dieser freiwillige Pakt würde europäische und außereuropäische Länder betreffen, da die Kommission versucht, KI-Software program und ihre potenziellen Datenschutzrisiken in den Griff zu bekommen.
Dazu gehören auch die Vereinigten Staaten, die ebenfalls mit der EU zusammenarbeiten, um einen neuen „Mindeststandard“ für KI zu schaffen, da die Besorgnis über die potenziellen Gefahren für die Sicherheit einer Particular person, die den Chatbot nutzt, immer größer wird.
Darüber hinaus hält Google seine Mitarbeiter davon ab, vertrauliche Unternehmensinformationen und wise Daten an seinen KI-Chatbot zu übermitteln, was Samsung im Mai mit seinen Mitarbeitern getan hat. Der koreanische OEM hat seinen Mitarbeitern nach einem Missgeschick mit einem Samsung-Ingenieur tatsächlich die Verwendung von KI-Chatbots wie Bard und ChatGPT verboten. Sie übermittelten vertrauliche Firmencodes an einen KI-Chatbot, was zur schnellen und plötzlichen Abschaltung der Software program führte.
Während der Google I/O 2023 erklärte das Unternehmen, dass es sich darauf konzentrieren werde, mit seiner KI-Software program „verantwortungsvoll“ umzugehen. Das Unternehmen teilte Reuters mit, dass es sich zum Ziel gesetzt habe, die Grenzen der Technologie clear darzustellen.