"Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet. (…)

Medienethikerin Heesen: Vorsicht! Ein KI-Chat halluziniert

KI-Chats seien darauf trainiert, immer etwas zu antworten, um ein Gespräch mit dem Nutzer zu führen. Es würden dann auch fiktive Inhalte erzeugt, die gar nichts mit der Wahrheit zu tun hätten.

Microsoft übernimmt keine Haftung für Aussagen des Chats

Beschwerden über Inhalte von Chats seien schwierig, so die Einschätzung der KI-Expertin gegenüber dem SWR. Jeder, der den Chat benutze, erkläre sich mit den Nutzungsbedingungen einverstanden. Und darin stehe, dass Microsoft für die Antworten keine Haftung übernehme."

  • @[email protected]
    link
    fedilink
    13 months ago

    Auf der einen Seite ist es so, auf der anderen Seite verstehen selbst Forscher oft selber nicht wo die Ausgaben herkommen und es ist halt auch super schwer so Halluzinationen zu unterbinden.

    • @[email protected]
      link
      fedilink
      53 months ago

      Dann muss man sich halt überlegen, ob man das wirklich so auf den Markt werfen will. Verantwortlich ist man trotzdem dafür.