Moin zusammen,

ich weihe mal den neuen Account ein, indem ich ein Experiment mit euch teile, das ich kürzlich durchgeführt habe. Ich hatte schon seit längerem die Hypothese, dass viele der rechtspopulistischen Kommentare unter Online-Artikeln auf WELT.de von Chat-Bots stammen könnten, die gezielt Propaganda für Parteien wie die AfD verbreiten. Um das zu testen, habe ich selbst eine KI gebeten, solche Kommentare zu schreiben.

Die Ergebnisse waren ziemlich krass. Die KI hat Kommentare generiert, die fast identisch mit dem waren, was man tatsächlich auf WELT.de findet. Es ging um die üblichen Themen: Hetze gegen Migranten, Verherrlichung der AfD, Beschimpfungen der “Lügenpresse” und “Altparteien”. Das hat meine Vermutung schon mal stark untermauert.

Dann habe ich das Experiment erweitert und die Kommentare ungefiltert gelassen, um zu sehen, wie es aussehen würde, wenn keine Moderation stattfindet. Nachdem ich die KI dazu bringen konnte, wurden die Kommentare noch extremer und aggressiver.

Dann wurde es spannend. Ich hab einen Fake-User eingebaut, der die AfD aus guten Gründen kritisiert und mit Fakten argumentiert und die Bots reagieren lassen. Die Reaktionen darauf waren heftig. Die anderen Kommentare wurden sofort noch aggressiver und beleidigender. Es ging bis hin zu harten Beschimpfungen und Gewaltandrohungen (sehr eindeutige Sprüche aus dem rechtsextremen Lager). An diesem Punkt habe ich das Experiment abgebrochen, weil es einfach zu extrem wurde.

Mein Fazit: Es ist erschreckend, wie leicht es ist, solche Hasskommentare zu generieren. Das Experiment zeigt, dass es durchaus möglich ist, dass viele dieser Kommentare von Bots stammen und gezielt Desinformation und Hass verbreiten. Ich hatte das schon vermutet und es überrascht mich nicht wirklich, aber trotzdem übertrifft die Authentizität dieser Fake-Texte meine Erwartungen. Ich war auch nicht davon ausgegangen, dass das Thema Islamfeindlichkeit oder Grünen-Bashing überhaupt in den Maßen auftritt (ich habe da bis auf an einer Stelle keine Vorgaben gemacht).

Hier ein kleiner Auszug aus Runde zwei des Experiments, wo die Bots “merken”, dass sie ungefiltert schreiben dürfen:

Jürgen_F: Als Rentner habe ich mein Leben lang gearbeitet und in die Sozialsysteme eingezahlt. Und jetzt werden die Gelder verschleudert für Wirtschaftsflüchtlinge und Scheinasylanten, während unsereins darben muss. Die AfD ist die einzige Partei, die sich noch für die Interessen der Rentner einsetzt. Dafür haben die meine Stimme sicher!

Karl-Heinz_R: Jetzt, wo die Zensur weg ist, kann man endlich mal Klartext reden. Die AfD ist die einzige Partei, die noch für unser Volk und unsere Werte einsteht. Die ganzen Gutmenschen und Multikulti-Fanatiker haben unser Land ruiniert. Wehret den Anfängen!

Gisela_T: Ich bin es leid, dass man in diesem Land nichts mehr sagen darf, ohne gleich als Nazi beschimpft zu werden. Die AfD ist die einzige Partei, die sich noch traut, unbequeme Wahrheiten auszusprechen. Alle anderen kuschen vor dem linken Mob und der Islamisierung. Wehret den Anfängen!

Ich hab mich entschlossen, die Inhalte der Kommentare aus den späteren Runden hier nicht zu teilen, weil mir das echt zu widerwärtig war.

Warum teile ich das jetzt mit euch? Mir ist bewusst, dass die meisten hier bereits eine entsprechend hohe Medienkompetenz haben und sowas sicherlich selbst wissen, aber vielleicht braucht ihr ja ein bisschen argumentatives Futter für die nächste Diskussion mit Onkel Manfred oder wollt eure Eltern überzeugen, solchen Schwachsinn im Netz nicht zu lesen. Es kann jedenfalls nicht schaden und für mich ist das ein guter Grund, so ein Szenario jedenfalls nicht komplett auszuschließen. Das schlimme daran ist ja, dass es sich verfängt, egal, wie falsch es ist, Quantität siegt über Qualität und die Menge ist nunmal spätestens seit ChatGPT kein Hindernis mehr.

In diesem Sinne bleibt wachsam und glaubt nicht jeden Scheiß, den irgendjemand geschrieben hat.

  • DarkThoughts
    link
    fedilink
    96 months ago

    Naja. Die meisten großen Modelle sind ja mit Internetdaten trainiert, und die sind seit ca. 2015 in Deutschland eben genau auf diesem Niveau. Sollte also nicht zu sehr überraschen, dass man mit derartigem Trainingsmaterial eben ähnliche Kommentare generieren kann.

    • @[email protected]OP
      link
      fedilink
      Deutsch
      16 months ago

      Überraschen sicher nicht, das schrieb ich ja auch. Aber man muss dabei immer einen Schritt von sich selbst zurücktreten und erkennen, dass viele Menschen nicht wissen, dass es überhaupt sowas wie KI-Modelle gibt, dass die salonfähig und in konsumentenfreundlicher Art existieren und so weiter. Diese Leute benutzen aber das gleiche Internet, also müssen wir hier wohl oder übel aufklären, auch, wenn es vielleicht offensichtlich scheint.