Zerstörerischer Kreislauf: Immer mehr Internet-Inhalte stammen von künstlichen Intelligenzen und bilden damit das Trainingsmaterial der nächsten KI-Generationen. Doch das könnte fatale Folgen haben, wie nun ein Experiment aufdeckt: Schon nach wenigen KI-Generationen führt dieser „Zirkelschluss“ zum Kollaps von Sprachmodellen. Die Resultate werden immer schlechter, bis die KI-Systeme schließlich nur noch Unsinn ausgeben, wie Forscher in „Nature“ berichten. Wie aber ließe sich das verhindern?
Paper: AI models collapse when trained on recursively generated data | PDF
Älterer Post zum Thema:
Wie könnte man das mit verhindern… oh nein, das ist so schwer. Es gibt weder einen gigantischen Datensatz bis 2022 noch kann ein Mensch die Qualität prüfen. Wir sind verdammt! Kollaps! Alles vorbei!