Über 350 Technologieexperten, KI-Forscher und Branchenführer haben den unterzeichnet Stellungnahme zum KI-Risiko Veröffentlicht vom Heart for AI Security in der vergangenen Woche. Es ist eine sehr kurze und prägnante Warnung in einem einzigen Satz für uns alle:
Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.
Daher glauben die KI-Experten, darunter praktische Ingenieure von Google und Microsoft, die KI aktiv auf die Welt loslassen, dass KI das Potenzial hat, ein globales Aussterben zu verursachen, ähnlich wie ein Atomkrieg. Huch.
Ich gebe zu, ich dachte das Gleiche, was viele Leute dachten, als sie diese Aussage zum ersten Mal lasen – das ist eine Menge Blödsinn. Ja, KI hat viele Probleme und ich denke, es ist noch etwas früh, sich so sehr darauf zu stützen, wie es einige Technologie- und Nachrichtenunternehmen tun, aber diese Artwork von Übertreibung ist einfach albern.
Dann habe ich im Bard Beta Lab AI gegoogelt und mehrere Gründe dafür gefunden, dass KI bereits schädlich ist. Einige der Schwächsten der Gesellschaft sind aufgrund der generativen KI und der Tatsache, wie dumm diese intelligenten Laptop tatsächlich sind, noch stärker gefährdet.
Die Nationwide Consuming Issues Affiliation entließ am 25. Mai 2023 ihre Helpline-Mitarbeiter und ersetzte sie durch Tessa, den ChatBot. Die Arbeiter befanden sich mitten in der Gewerkschaftsbildung, aber NEDA behauptet, „das struggle eine lange erwartete Änderung und dass KI Menschen mit Essstörungen besser helfen kann“ und hatte nichts damit zu tun, dass sechs bezahlte Mitarbeiter und verschiedene Freiwillige versuchten, sich gewerkschaftlich zu organisieren.
Am 30. Mai 2023 hat NEDA den ChatBot Tessa deaktiviert, weil er Menschen mit schweren Essstörungen schädliche Ratschläge gab. Offiziell ist NEDA „besorgt und arbeitet mit dem Technologieteam und dem Forschungsteam zusammen, um dies weiter zu untersuchen; diese Sprache verstößt gegen unsere Richtlinien und Grundüberzeugungen als Organisation für Essstörungen.“
In den USA gibt es 30 Millionen Menschen mit schweren Essstörungen und 10.200 sterben jedes Jahr als direkte Folge davon. Eine jede Stunde.
Dann haben wir Koko, eine gemeinnützige Organisation für psychische Gesundheit, die KI als Experiment an selbstmörderischen Teenagern einsetzte. Ja, das hast du richtig gelesen.
Gefährdete Benutzer wurden über soziale Medien auf Kokos Web site weitergeleitet, wo jeder in eine von zwei Gruppen eingeteilt wurde. Einer Gruppe wurde die Telefonnummer einer echten Krisen-Hotline zur Verfügung gestellt, wo sie hoffentlich die Hilfe und Unterstützung finden konnte, die sie brauchten.
Die andere Gruppe nahm an Kokos Experiment teil, bei dem sie an einem Quiz teilnahm und gebeten wurde, die Dinge zu identifizieren, die ihre Gedanken auslösten, und was sie taten, um damit umzugehen.
Als sie fertig waren, fragte die KI sie, ob sie am nächsten Tag ihre Telefonbenachrichtigungen überprüfen würden. Wenn die Antwort „Ja“ lautete, wurden sie auf einen Bildschirm mit der Aufschrift „Danke dafür! Hier ist eine Katze!“ gedrängt. Natürlich gab es ein Bild einer Katze, und offenbar dachten Koko und der KI-Forscher, der bei der Erstellung dieses Bildes mitgewirkt hat, dass es die Dinge irgendwie verbessern wird.
Ich bin nicht qualifiziert, über die Ethik in Situationen wie dieser zu sprechen, in denen KI zur Diagnose oder Hilfe für Menschen mit psychischen Problemen eingesetzt wird. Ich bin ein Technologieexperte, der sich hauptsächlich auf Smartphones konzentriert. Die meisten menschlichen Experten sind sich jedoch einig, dass die Praxis voller Probleme ist. Ich weiß, dass die falsche Artwork von „Hilfe“ eine schlechte State of affairs noch viel schlimmer machen kann und wird.
Wenn Sie Probleme mit Ihrer geistigen Gesundheit haben oder das Gefühl haben, Hilfe zu benötigen, rufen Sie bitte 988 an oder schreiben Sie eine SMS, um mit einem Menschen zu sprechen, der Ihnen helfen kann.
Solche Geschichten sagen zwei Dinge aus: KI ist sehr problematisch, wenn sie im Krisenfall anstelle qualifizierter Leute eingesetzt wird, und echte Menschen, die es besser wissen sollen, können auch dumm sein.
KI ist in ihrem aktuellen Zustand noch nicht bereit, auf diese Weise eingesetzt zu werden. Nicht annähernd. Emily M. Bender, Professorin an der College of Washington, bringt in einer Erklärung gegenüber Vice einen wichtigen Punkt zum Ausdruck:
„Große Sprachmodelle sind Programme zur Generierung plausibel klingender Texte anhand ihrer Trainingsdaten und einer Eingabeaufforderung. Sie haben weder Empathie noch Verständnis für die Sprache, die sie produzieren, noch Verständnis für die State of affairs, in der sie sich befinden. Aber den Textual content, den sie haben erzeugen believable Geräusche, und daher ist es wahrscheinlich, dass die Leute ihnen eine Bedeutung zuweisen. So etwas in heikle Situationen zu werfen bedeutet, unbekannte Risiken einzugehen.
Ich möchte leugnen, was ich sehe und lese, damit ich so tun kann, als ob die Leute keine Abkürzungen nehmen oder versuchen, Geld zu sparen, indem sie KI auf so schädliche Weise einsetzen. Die bloße Vorstellung ist für mich widerlich. Aber ich kann nicht, weil KI immer noch dumm ist und anscheinend auch viele Leute, die sie nutzen wollen.
Vielleicht ist die Idee eines Massenaussterbens aufgrund von KI doch gar nicht so abwegig.