“Cenzura AI stworzy dystopijny świat” – mówi doradca Donalda Trumpa
Jeden z doradców Donalda Trumpa ostrzega przed cenzurą modeli AI, która jego zdaniem może zmienić naszą rzeczywistość w “dystopię”.
Cenzura chatbotów AI może być większym problemem, niż cenzura w social mediach
W przededniu wyborów prezydenckich w 2024 roku Mark Zuckerberg stanął przed Kongresem przyznając, że pod presją administracji Bidena cenzurował treści związane z pandemią z 2019 roku, które uważane były za szkodliwe. Przykład ten z jednej strony ujawnił tajemnicę poliszynela, jaką od dawna jest internetowa poprawność polityczna, z drugiej – przypominał, jak ogromny wpływ na debatę publiczną może mieć moderacja mediów społecznościowych, do której przeciętny użytkownik dawno zdążył przywyknąć.
Przedsiębiorcy z Doliny Krzemowej, w tym Marc Andreessen i David Sacks, którzy pełnią obecnie funkcje doradców szykującego się do objęcia prezydentury Donalda Trumpa, zwrócili uwagę na problem, który ich zdaniem może być jeszcze poważniejszy.
Mowa o tzw. AI Censorship, czyli cenzurze algorytmów generatywnej sztucznej inteligencji.
To proces, w którym firmy Big Tech nakładają restrykcje na odpowiedzi generowane przez swoje chatboty – tak, by odzwierciedlały one określone poglądy polityczne. Doradcy Trumpa argumentują, że takie działania pozwalają gigantom technologicznym skutecznie eliminować treści uznawane przez nich za niepożądane, dając użytkownikowi „jedyną poprawną” odpowiedź na zadawane przez niego pytania.
O ile taka polityka jest zrozumiała w przypadku naprawdę niebezpiecznych treści, tylko od twórców zależy, jak zdefiniują “szkodliwość”. Andreessen, w wywiadzie z dziennikarką Bari Weiss zasugerował, że proces określania niepożądanych treści może być całkiem arbitralny, przez co firmy Big Tech, zamiast dostarczać użytkownikom rzetelne informacje, świadomie kształtują ich światopogląd, przemycając w chatbotach “własne, ekstremalnie liberalne poglądy”:
Jeśli chcesz zbudować dystopijny świat, będzie to świat, w którym wszystko kontroluje AI zaprogramowana, by kłamać.
Jednym z najbardziej wyraźnych przykładów cenzury AI były odpowiedzi udzielane swego czasu przez Gemini, który poświęcając merytorykę na rzecz polityki różnorodności, oberwał tak od konserwatystów, jak i użytkowników o bardziej progresywnych poglądach. Wśród generowanych przez niego obrazów znalazły się takie, na których wśród Ojców Założycieli USA znajdowali się przedstawiciele różnych ras, jak i te, na których mogliśmy oglądać… czarnoskórych żołnierzy III Rzeszy.
Przygnieceni krytyką twórcy w końcu wyłączyli możliwość generowania grafik przedstawiających ludzi w Gemini. Firma tłumaczyła całe zamieszanie “błędem”, jednak Sacks uważał, że to nie pomyłka, a część przemyślanej agendy.
Jeden z komentarzy Elona Muska zwrócił jednak uwagę na drugą stronę medalu. Jego Grok, chociaż w założeniu miał być algorytmem udzielającym bezstronnych odpowiedzi, zdaniem Muska wciąż wykazywał się przesadną „grzecznością”. Powodem, zamiast narzuconych przez firmę restrykcji, miał być trening modelu na dostępnych w internecie materiałach, które same w sobie są przesycone poprawnością polityczną i utrudniają oddanie w ręce użytkownika naprawdę neutralnej technologii.
Bez względu na to, czy cenzura w świecie sztucznej inteligencji jest bardziej intencjonalna czy bardziej przypadkowa, stanowi problem. Obecnie, od dezinformacji podawanej przez AI możemy odciąć się, szukając treści na własną rękę, jednak w miarę rozwoju technologii, w końcu może stać się to niemożliwe.