"Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet. (…)

Medienethikerin Heesen: Vorsicht! Ein KI-Chat halluziniert

KI-Chats seien darauf trainiert, immer etwas zu antworten, um ein Gespräch mit dem Nutzer zu führen. Es würden dann auch fiktive Inhalte erzeugt, die gar nichts mit der Wahrheit zu tun hätten.

Microsoft übernimmt keine Haftung für Aussagen des Chats

Beschwerden über Inhalte von Chats seien schwierig, so die Einschätzung der KI-Expertin gegenüber dem SWR. Jeder, der den Chat benutze, erkläre sich mit den Nutzungsbedingungen einverstanden. Und darin stehe, dass Microsoft für die Antworten keine Haftung übernehme."

  • @General_Effort
    link
    13 months ago

    Dann sollte man das auch so benennen, als eine statistische Methode, Daten anders auszuwerten. Aber nicht als “Künstliche Intelligenz”

    Ich versuche mal, das ein bisschen zu vermitteln.

    Machine Learning (ML) benutzt häufig statistische Methoden. Es gibt also zwangsläufig eine gewisse Überlappung mit der Statistik. Aber nicht alles beim maschinellen Lernen kommt aus der Statistik. Die neuronalen Netze, die man für Sprachmodelle benutzt, sind von der Biologie (und teils von der Physik) inspiriert. Es ist also ein Unterschied.

    KI umfasst ML und noch einige weitere Sachen. ZB hat die KI-Forschung früher sehr hart daran gearbeitet, Schachcomputer zu programmieren. Schach ist schließlich etwas, das Intelligenz erfordert.

    So langsam reift die Erkenntnis heran, dass KI nur ein stochastischer Papagei ist.

    Das wird meist über Sprachmodelle gesagt, vulgo Chatbots. Die beruhen auf künstlichen neuronalen Netzen, sind also von der Biologie inspiriert. Genau wie Menschen neigen sie dazu, Aussagen oder Slogans zu wiederholen, die sie nicht verstehen. Genau wie Menschen können sie aber durchaus ein tieferes Verständnis entwickeln.

    Hier ein kleiner Kommentar von FEFE, der meine Sichtweise gut zusammenfasst.

    Da geht es um Bilderkennung, allgemeiner Mustererkennung. Sowas geht mit und ohne ML, aber ohne natürlich nicht nur sehr schlecht. Der Ausdruck KI ist auch praktisch, weil technische Details offen gelassen werden.

    Das ist kein predictive Policing. Es geht darum, Menschen zu erkennen, die (verbotene) Waffen tragen oder polizeilich gesucht werden. Man könnte auch Menschen erkennen, die sich verdächtig verhalten, vielleicht mit dem Gedanken spielen, sich vor einen Zug zu stürzen.

    So was wie mit dem mutmaßlichen Terroristen, den sie letzte Woche gefunden haben, der dann keiner war. Das war noch nicht mal eine KI.

    Genau. Wie ich sagte, man muss aufpassen mit der Kritik.