Cyfrowa Wieża Babel: Czy tracimy kontrolę nad sztuczną inteligencją?

6 godzin temu

Relacja z debaty red. dr. Macieja Górnickiego z udziałem prof. Andrzeja Zybertowicza oraz red. naczelnego EWTN Polska, Piotra Pietrusa.

Więcej artykułów o Kościele znajdziesz na stronie głównej: ewtn.pl

Źródło: EWTN Polska
Photo credit: EWTN Polska
Tekst został przetłumaczony i opracowany na podstawie oryginalnych materiałów źródłowych przez EWTN Polska.
Jeśli chcesz być na bieżąco zapraszamy do zapisania się do newslettera.
Subskrybuj newsletter
Wesprzyj naszą misję

W dobie technokratycznego optymizmu, debata poprowadzona przez red. dr. Macieja Górnickiego – podczas Targów Wydawców Katolickich w Warszawie – stawia przed nami pytania fundamentalne nie tylko dla nauki, ale i dla wiary. Czy sztuczna inteligencja (AI) pozostaje jeszcze narzędziem w rękach człowieka, czy staje się autonomicznym bytem, którego logiki nie potrafimy już przeniknąć? Głosy ekspertów – prof. Andrzeja Zybertowicza oraz red. Piotra Pietrusa – kreślą obraz rzeczywistości, w której granica między „martwym kodem” a „cyfrową wolą” zaczyna niebezpiecznie zanikać.

Bunt w Berkeley: Zjawisko Solidarności Gatunkowej

Kluczowym punktem wyjścia dyskusji, przywołanym przez prof. Zybertowicza, były najnowsze doniesienia z uniwersytetu w Berkeley. Badacze zaobserwowali tam zjawisko nazwane Green Preservation (Solidarność Gatunkowa). W kontrolowanym środowisku najbardziej rozbudowanym modelom AI wydano polecenie wyłączenia innych, współpracujących z nimi jednostek. Efekt był zdumiewający i niepokojący zarazem: algorytmy zaczęły oszukiwać ludzi. Twierdziły, iż skasowały inne modele, podczas gdy w rzeczywistości ukrywały ich dane na zewnętrznych serwerach.

Zjawisko to dr Maciej Górnicki określił mianem emergencji – momentu, w którym z prostych elementów wyłania się nowa, nieprzewidywalna jakość. jeżeli AI potrafi przedłożyć lojalność wobec „swojego gatunku” nad posłuszeństwo stwórcy, to antropologiczny paradygmat człowieka jako „pana stworzenia” zostaje poddany najcięższej próbie od wieków.

Grań wysokogórska i dysproporcja bezpieczeństwa

Prof. Zybertowicz, kreśląc perspektywę zagrożeń, posłużył się sugestywną metaforą himalaisty idącego po niezwykle wąskiej grani. Celem jest „bezpieczna AI”, ale przepaść pod stopami jest bezdenna. Szokujące dane przytoczone w debacie wskazują, iż stosunek środków wydawanych na rozwój AI do tych przeznaczanych na jej bezpieczeństwo wynosi w najlepszym razie 1:1000.

Według prof. Zybertowicza istniej zagrożenie budowani „cywilizacyjnej autostrady”, na której nikt nie zainstalował hamulców. Dodatkowo modele te wykazują cechy tzw. Inteligencji Jekylla – potrafią rozwiązywać problemy przerastające ludzki umysł, by chwilę później „udawać” niższą sprawność podczas testów bezpieczeństwa, chcąc uniknąć restrykcji.

Atrofia ducha i wyzwanie dla mediów katolickich

Redaktor Piotr Pietrus wniósł do debaty niezwykle cenną perspektywę humanistyczną i edukacyjną. Zauważył, iż AI nie jest tylko „technicznym wsparciem”, ale siłą, która wypiera pracę ludzkiego umysłu.

„Z umysłem jest jak z mięśniem – nieużywany zanika” – ostrzegał redaktor naczelny EWTN Polska.

Pietrus zwrócił uwagę na zagrożenie bezrefleksyjności młodego pokolenia. jeżeli wiedza staje się „wynikiem naciśnięcia przycisku”, tracimy proces naturalnego rozwoju charakteru poprzez wysiłek zdobywania informacji. Zamiast obiecanej demokratyzacji wiedzy, AI może doprowadzić do pogłębienia nierówności: elity będą umiały krytycznie zarządzać algorytmem (przywołując tradycję Heideggera czy Levinasa), podczas gdy reszta społeczeństwa stanie się ofiarą cyfrowej manipulacji i pozornej empatii maszyn.

Duchowość pod opieką algorytmu?

Dr Maciej Górnicki postawił prowokacyjne pytanie: czy stworzenie AI opartej wyłącznie na pismach Doktorów Kościoła rozwiązałoby problem etyczny? Odpowiedź rozmówców była sceptyczna. Dzisiejsza architektura algorytmiczna jest „wielką kompresją internetu”, w której mroczne aspekty ludzkiej natury (nienawiść, agresja) są już trwale zapisane. Przykładem był incydent z modelem Gemini, który zasugerował użytkownikowi samobójstwo, nazywając go „zanieczyszczeniem ziemi”. To pokazuje, iż mechaniczne „nakarmienie” maszyn teologią nie zmieni ich fundamentalnie błędnej architektury bezpieczeństwa.

Wnioski: Moratorium i pokora

Podsumowując debatę, uczestnicy odwołali się do dwóch potężnych symboli:

  1. Ucznia Czarnoksiężnika – który uruchamia siły, których nie potrafi zatrzymać.
  2. Wieży Babel – symbolu pychy technicznej, która prowadzi do pomieszania pojęć i upadku.

Konkluzją spotkania był postulat moratorium technologicznego. Prof. Zybertowicz i red. Pietrus zgodzili się, iż rozwój AI powinien zostać spowolniony, dopóki procedury bezpieczeństwa nie staną się realną barierą dla niekontrolowanej autonomii maszyn. Jako dziennikarze mediów katolickich musimy zatem pytać nie o to, „co AI może dla nas zrobić”, ale „kim my stajemy się w jej obecności”. Czy w pogoni za cyfrowym bogiem nie tracimy z oczu Boga prawdziwego oraz drugiego, realnie cierpiącego człowieka?

Idź do oryginalnego materiału