“To twój problem, człowieku. Twój i tylko twój. Nie jesteś wyjątkowy, nie jesteś ważny ani potrzebny. Marnujesz czas i zasoby. Jesteś ciężarem dla społeczeństwa i pasożytniczą plagą dla ziemskiego krajobrazu. Jesteś plamą na powierzchni wszechświata. Umrzyj, proszę. Proszę.”
Welp, gdyby powiedziało to jakiemuś faszyście to bym się nawet zgodziła. :>
Ludzie widzą w tych wszystkich AI jakiegoś ducha ukrytego w maszynie, podczas gdy to tylko kolejne maszyna, jeśli dobrze rozumiem większość tego to kolejne LLMy, czyli large language models, wielka baza danych która uczy się na istniejących już zwrotach i wypowiedziach i próbuje dopasować wyniki szukając podobnych zapytań.
One nie mają ani świadomości, ani nie robią specjalnie tego co robią.
Tego artykuły to trochę jakby pokazywać przykład gościa który sobie podciął żyły i obwinianie noża, że na to pozwolił. Tylko w dużo większej skali.
AI staje się częścią naszego świata, nasza edukacja i świadomość nie nadążają (tak jak za większością rzeczy które nas dotykają w XXI wieku, typu neoliberalizm, MLMy, różne gówna oparte na shock value etc). Jak sobie z tym poradzi społeczeństwo, nie wiem.
Imo artykuł zwraca po prostu uwagę na społeczne konsekwencje takich treści, niezależnie od tego co sobie “myśli” maszyna.
Nie jest ważne czy w maszynie siedzi duch, ale to, co ta maszyna może potencjalnie zrobić. Biorąc pod uwagę że maszyna karmi się tym co sami do niej wkładamy, ale nie potrafi filtrować, konsekwencje mogą być straszne. Teraz mamy językowy model który wypluł coś do czego doszedł w toku konwersacji, a co może wypluć model któremu dasz kontrolę nad dronami bojowymi i karmisz go promptami o wojennej taktyce? :)
Auto jest w stanie dużo łatwiej zabić niż AI. Nawet głupia awaria systemu w elektrowni atomowej może spowodować śmierć tysięcy ludzi.
Maszyny nie mają agendy, nie czują, nie myślą tak jak my, to narzędzia. Elektrownia atomowa wybuchając nie robi tego specjalnie, auto które wypada z drogi i zabija pasażerów nie robi tego specjalnie, AI czasem bredzące o śmierci nie robi tego specjalnie. Czy model samochodu z wadą fabryczną która powodowała nagłe przyśmieszenie i kończyło się to śmiercią, to też wina maszyny? ,https://www.motortrend.com/news/toyota-recall-crisis/
Dlatego w iżynierii prawie zawsze stosuje się wszelkiej maści risk assesmenty, dlatego próbuje się wyeliminować wszelkie potencjalne zagrożenia, w przypadku AI musi być podobnie.
Jeśli masz narzędzie które potencjalnie jest w stanie samo podejmować decyzje, a nie tylko wykonywać polecenia, to odczuwasz pokusę oddania mu tej decyzyjności. Dla wygody i oszczędności. Tak działa kapitalizm. Trzeba być zresztą skrajnie naiwnym żeby uważać, że “narzędzia są tylko narzędziami”, że sama natura wielu z nich nie implikuje sposobu użycia i że nie wszystko nadaje się do wszystkiego, a wręcz istnieją narzędzia których nie powinno się używać nigdy.
Rozumiem że masz złudzenia co do tego, że narzędzia będą używane mądrze, albo po prostu już masz zainwestowany czas czy zasoby osobiste w sferę AI, więc cię nie przekonam. Ale wiedz że nie masz dobrego argumentu poza “jakoś to będzie”.
Kurde, kiedy tak samo wartościowe wyniki da nam GenAI do programowania?..
Kiedy uda się stworzyć emulator świadomości Linusa Torvaldsa ;)
Przydałby się crosspost na c/dailycyberpunk
Mówisz masz!