Was du wissen musst

  • Google beginnt damit, seine Mitarbeiter davor zu warnen, vertrauliche Unternehmensinformationscodes an seine eigene KI-Software program Bard zu übermitteln.
  • Das Unternehmen macht sich zunehmend Sorgen über die Möglichkeit eines Datenlecks, da Informationen, die in den Bot gelangen, öffentlich bekannt werden könnten.
  • Ähnliche Maßnahmen zur stärkeren Fokussierung auf Datenschutz und Sicherheit bei KI-Software program sind in der EU und bei Samsung aufgetaucht.

Obwohl Google sich bemüht, einen eigenen KI-Chatbot in seine Suchmaschine zu integrieren, versucht das Unternehmen nun, seine Mitarbeiter davon abzuhalten, ihn zu nutzen. Laut Reuters hat das in Mountain View ansässige Unternehmen seinen Mitarbeitern geraten, keine vertraulichen Materialien in den KI-Chatbot einzuschleusen. Alphabet hat diese Warnung auch auf Computercode ausgeweitet.

Google Bard kann Programmierern bei der Codierung helfen, aber wie das Unternehmen angibt, könne es zuweilen „unerwünschte“ Vorschläge liefern, teilte das Unternehmen Reuters mit. Darüber hinaus besteht aufgrund der Funktionsweise von Chatbots wie Bard die Möglichkeit eines Datenlecks. Nicht nur, dass ein Mensch Ihren Chat liest (aus irgendeinem Grund), sondern eine andere KI könnte diese Informationen als Teil ihres Lernprozesses nutzen und sie dann im Gegenzug für eine weitere Abfrage verteilen, erklärte Reuters. Dies wiederum würde es ermöglichen, dass hochsensible Daten öffentlich werden.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert