"Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet. (…)

Medienethikerin Heesen: Vorsicht! Ein KI-Chat halluziniert

KI-Chats seien darauf trainiert, immer etwas zu antworten, um ein Gespräch mit dem Nutzer zu führen. Es würden dann auch fiktive Inhalte erzeugt, die gar nichts mit der Wahrheit zu tun hätten.

Microsoft übernimmt keine Haftung für Aussagen des Chats

Beschwerden über Inhalte von Chats seien schwierig, so die Einschätzung der KI-Expertin gegenüber dem SWR. Jeder, der den Chat benutze, erkläre sich mit den Nutzungsbedingungen einverstanden. Und darin stehe, dass Microsoft für die Antworten keine Haftung übernehme."

  • @General_Effort
    link
    222 days ago

    Dass die Anbieter anfangs nicht viel deutlicher auf die Unzuverlässigkeit hingewiesen haben, hielt und halte ich für problematisch. Ich weiß nicht, ob man überhaupt jetzt schon davon ausgehen kann, dass das zu allen Leuten vorgedrungen ist.

    Ich bin aber vor allem enttäuscht, dass der ÖRR hier so emotionalen Clickbait fährt, statt Aufklärung zu betreiben.