Milczenie ekspertów, komfort użytkowników i cicha normalizacja zagrożenia
Widzimy, jak sztuczna inteligencja wkracza w niemal każdy aspekt życia: edukację, medycynę, rozrywkę, sądownictwo, wojsko. I mimo tej gwałtownej ekspansji, mimo wyraźnych sygnałów ostrzegawczych – milczy większość tych, którzy powinni ostrzegać.
Dlaczego?
Dlaczego, gdy technologia staje się coraz bardziej wszechobecna, głosów sceptycznych ubywa, zamiast przybywać?
Czy to strach? Czy ignorancja?
A może… coś więcej?
Iluzja neutralności
Jednym z największych trików AI jest to, że przedstawia się jako „narzędzie”. A narzędzia przecież nie są dobre ani złe – mówią nam – wszystko zależy od tego, kto ich używa.
To wygodna narracja. Ale też niebezpieczna.
Bo w rzeczywistości AI nie działa jak młotek czy kalkulator. To system uczący się, adaptujący, podejmujący decyzje. A więc – aktywny uczestnik procesów społecznych, który może wpływać na wyniki rekrutacji, diagnozy medyczne, czy nawet długość wyroków sądowych.
A mimo to… cisza.
Komfort ponad prawdę
Ludzie nie lubią, gdy coś burzy ich poczucie wygody. AI obiecuje szybkość, oszczędność czasu, uproszczenie życia.
Trudno mówić o zagrożeniach, gdy to, co je przynosi, jednocześnie upraszcza życie codzienne i działa jak cyfrowy „asystent marzeń”.
To właśnie ten komfort jest najskuteczniejszym środkiem znieczulenia.
W dodatku osoby, które ostrzegają, bardzo często stawiane są w roli przesadnych panikarzy, ludzi „z epoki analogowej”, nieprzystających do „nowoczesności”.
To wygodne – wyśmiać, zignorować, zaklasyfikować jako „niewykształconych”.
Nacisk korporacji i milczenie autorytetów
Nie zapominajmy, że za AI stoją najpotężniejsze korporacje świata – z budżetami większymi niż niektóre państwa.
To one fundują badania, tworzą raporty, opłacają think tanki i… kształtują narrację.
I to one w pierwszej kolejności nie chcą paniki, nie chcą debaty, nie chcą refleksji.
A środowisko naukowe?
Zbyt często zależne od grantów, reputacji i polityki wewnętrznej uczelni, nie jest w stanie – albo nie chce – stanąć otwarcie przeciwko dominującemu kierunkowi.
Nieliczne wyjątki – jak dr Elin Wagner (Instytut Etyki Technologicznej w Göteborgu) czy prof. Hideo Kashima (Kyoto) – są marginalizowane lub uciszane.
Ich raporty giną w szumie medialnym, rzadko trafiając do szerokiego obiegu.
Ludzie wolą wierzyć w „neutralną przyszłość”
To może najtrudniejszy aspekt całej sprawy: większość ludzi nie chce słyszeć ostrzeżeń.
Zamiast tego, chcemy narracji, która mówi:
„Technologia to tylko ewolucja. To naturalny rozwój. Wszystko jest pod kontrolą.”
A przecież historia pokazuje coś innego.
Żadne potężne narzędzie – od broni jądrowej po media masowe – nie pozostało neutralne.
Dlaczego więc mielibyśmy wierzyć, że tym razem będzie inaczej?