cyber, artificial intelligence, brain-4062449.jpg

Czy sztuczna inteligencja jest zagrożeniem dla ludzkości?

Wstęp

Dziś wpis będzie mniej techniczny, a bardziej filozoficzny. Od kilku miesięcy temperatura dyskusji nad rozwojem i przyszłością sztucznej inteligencji bije kolejne rekordy i nic nie zapowiada jak na razie, by miała zacząć spadać. Mamy lato AI w pełni.

Chciałbym w tym blogu zebrać moje aktualne przemyślenia na temat tego, z czym mamy do czynienia i w którym kierunku zmierzamy. A przede wszystkim, co możemy zrobić, zwłaszcza jako osoby rozwijające AI, aby ten rozwój był jak najlepszy.

Obecne czasy

Nie sposób mówić o przyszłości, jeśli się nie postawi właściwej diagnozy sytuacji obecnej. Spróbuję pokrótce naszkicować obecną sytuację z punktu widzenia rozwoju technologii.

W ciągu ostatnich kilkunastu lat doświadczyliśmy ogromnych zmian: powstania smartfonów, dostępu do Internetu niemal w każdym miejscu i w każdej chwili, rozwoju sieci społecznościowych i ogólnie – przestrzeni wirtualnej, w której wiele osób spędza większość swojego życia (nie tylko pod względem ilości czasu, ale też poznawania świata, kształtowania poglądów, czy przeżywania emocji).

Ten rozwój dał (i wciąż daje) ogromne możliwości. Z drugiej strony prowadzi do bardzo szybkich zmian kulturowych, takich jak sposób pracy, nauki, leczenia, spędzania wolnego czasu, wchodzenia i utrzymywania relacji międzyludzkich i wiele innych. Ma też ogromny wpływ na ciało, psychikę i duchowość człowieka, który funkcjonuje często w bardzo nienaturalny sposób (np. większość dnia jest wpatrzony w ekran).

Z negatywnych konsekwencji tego rozwoju łatwo widoczne są takie, jak trudności w skupieniu się (a w konsekwencji brak pogłębionego myślenia), pogarszająca się jakość relacji (spłycenie ich), przebodźcowanie, uzależnienie od technologii, mniejsza samodzielność w radzeniu sobie z problemami, zalew informacyjny, poczucie chaosu i niepokoju, i wiele innych podobnych zjawisk. W konsekwencji (choć nie jest to z pewnością jedyna przyczyna) mamy falę depresji, poczucia samotności, bezsilności.

Dlatego sensownym wydaje się pytanie, czy rozwój AI w tym kontekście może przynieś jakąś istotną zmianę? Jeśli tak, to czy to będzie zmiana raczej pozytywna, czy raczej negatywna? Od czego to zależy, jakiego rodzaju będzie to zmiana? I pytanie szczególnie istotne dla osób tworzących te algorytmy – jak powinniśmy podchodzić do tego, aby była to możliwie pozytywna zmiana?

Wyzwania związane z rozwojem AI

W kontekście nakreślonej powyżej sytuacji, wydaje mi się, że dokonujący się od kilkudziesięciu lat rozwój algorytmów określanych ogólnie jako „sztuczna inteligencja”, będzie rodził duże wyzwania. Głównie może to być wzmocnienie już istniejących negatywnych tendencji.

  1. Jeszcze większa utrata rozumienia człowieka, jako istoty wyjątkowej

Stoję na stanowisku, że z naukowego punktu widzenia nie ma podstaw by sądzić, że algorytmy AI będą kiedykolwiek w stanie przewyższyć, czy dorównać możliwościom człowieka. Chociaż coraz więcej wiemy o działaniu naszego systemu nerwowego, wciąż widzimy, że daleko nam do zrozumienia takich cech człowieka jak niemal nieograniczony potencjał umysłu i adaptacji do różnych warunków, kreatywność, abstrakcyjne myślenie, siła woli, dążenie do długofalowych celów, przewydywanie konsekwencji, chęć własnego rozwoju i poznawania świata, czy wreszcie wspólne dla większości ludzi poczucie, co jest dobre, a co złe. Obecne próby wyjaśnienia, a tym bardziej przełożenia tych zjawisk na algorytmy, są ogromnym spłyceniem.

Myślę, że maszyny przewyższają człowieka w taki sposób, w jaki kalkulator przewyższa nas w możliwościach obliczeń. Po prostu są w stanie przetwarzać o wiele więcej informacji o wiele szybciej. To niesie ogromne możliwości. To dlatego modele takie jak GPT-4 są w stanie działać w sposób na pierwszy rzut oka nieodróżnialny od człowieka.

W tym tkwi jednak pierwsze wyzwanie. Sama nazwa „sztuczna inteligencja” i część (pseudo) marketingu, jaki robią w tym temacie filmy, media i niezbyt mądre wypowiedzi różnych (znów pseudo) wizjonerów, budują nastrój taki, jak gdybyśmy byli w stanie faktycznie zbudować sztuczny mózg lub roboty przewyższające nas w inteligencji. Taki punkt widzenia prezentują również autorzy listu otwartego, który nawołuje do zaprzestania badań nad sztuczną inteligencją na 6 miesięcy : „Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?” (Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, zdezaktualzować i zastąpić nas?).

Wraz z rozwojem i rozpowszechnieniem się tych algorytmów, takie przekonania mogą się stać coraz popularniejsze. W konsekwencji ludzie coraz bardziej będą zatracać poczucie własnej wyjątkowości na tym świecie, co może doprowadzić do pogłębienia poczucie bezsilności, bycia niepotrzebnym, wyeliminowanym.

  1. Jeszcze większy chaos informacyjny i trudności w dochodzeniu do prawdy.

Narzędzia typu ChatGPT pozwalają w ciągu kilku sekund generować długie teksty, bardzo wysokiej jakości, brzmiące wiarygodnie. A zatem tak jak do tej pory szerzenie dezinformacji wymagało sporych nakładów czasu, tak teraz będzie to banalne zadanie i możliwe do przeprowadzenia na nieporównywalnie większą skalę.

Co więcej, te narzędzia reprezentują „własne” poglądy – zależne od sposobu, w jaki zostały wytrenowane. Mogą zatem tym skuteczniej wpływać na kształtowanie opinii publicznej.

  1. Większy wpływ wielkich korporacji i państwa.

Rozwój ogromnych modeli AI wymaga dużych inwestycji, na które w tym momencie mogą sobie pozwolić tylko duże korporacje i rządy. Tworzy to sytuację, w której te podmioty mogą kontrolować dostęp do zaawansowanych algorytmów AI i wykorzystywać je do zwiększenia swojej przewagi, a także do zbierania i analizowania ogromnych ilości danych na temat użytkowników. To z kolei prowadzi do większej koncentracji władzy i zwiększa ryzyko nadużyć, dając zbyt dużą możliwość ingerencji w życie człowieka.

Państwa mogą wykorzystywać sztuczną inteligencję do celów monitorowania i kontroli obywateli. Zastosowanie technologii takich jak rozpoznawanie twarzy, czy zaawansowana analityka osobistych danych może prowadzić do naruszenia prywatności i wolności, co już ma miejsce np. w Chinach. Istnieje także ryzyko, że rządy wykorzystają algorytmy AI do manipulacji opinii publicznej i kontrolowania informacji w celu utrzymania swojej władzy.

  1. Ryzyko jeszcze większego uzależnienia się od technologii.

Rozwój sztucznej inteligencji może prowadzić do jeszcze większego uzależnienia się społeczeństwa od technologii. Zastosowanie AI w różnych dziedzinach, takich jak medycyna, transport, edukacja czy zarządzanie, może sprawić, że staniemy się coraz bardziej zależni od autonomicznych systemów. Jeśli nie zostanie wykonana świadoma praca, aby utrzymać pewne umiejętności, które do tej pory były niezbędne (np. kreatywne myślenie), mogą pojawić się poważne problemy w przypadku np. awarii czy niedostępności algorytmów.

  1. Trudne do przewidzenia zmiany kulturowe.

Wprowadzenie sztucznej inteligencji na szeroką skalę będzie zmieniać nasze sposoby zachowania i styl życia. Przykładowo interakcja z inteligentnymi agentami AI, takimi jak chatboty czy wirtualni asystenci, może wpływać na nasze nawyki komunikacyjne i społeczne. To może prowadzić do zmian w naszych relacjach społecznych, a także do ewolucji naszej kultury i sposobu postrzegania relacji człowiek-maszyna. Sama zmiana nie musi być czymś złym, natomiast jeśli te zmiany dokonują się w bardzo krótkim czasie, rodzi to wiele wyzwań na różnych polach, jak np. trudności w porozumieniu się między różnymi pokoleniami.

Podsumowanie wyzwań

Potencjalnych wyzwań jest oczywiście o wiele więcej, natomiast te pięć kategorii wydaje mi się na ten moment najbardziej kluczowe.

Kryteria do rozwoju AI

Aby sprostać wyzwaniom wymienionym w poprzedniej sekcji, potrzebne jest wprowadzenie pewnych kryteriów, zasad do rozwoju AI.

Rozwój AI (jak każdej innej technologii) ma sens jedynie wtedy, jeśli ukierunkowany jest na dobro człowieka. Jest to może trywialne stwierdzenie i pewnie każdy się z nim zgodzi. Natomiast kluczowe jest pytanie, co rozumiemy przez dobro człowieka. Jest to pojęcie bardzo szerokie, możemy wymienić takie elementy jak:

  • poprawa zdrowia,
  • pozytywny wpływ na pracę (większa wygoda, łatwość w znalezieniu pracy, praca ciekawa, dostosowana do talentów itp.),
  • ogólnie poprawa dobrobytu i jakości życia (większe bezpieczeństwo, ograniczenie ubóstwa itp.).
  • poprawa edukacji i nauki,
  • pozytywny wpływ na środowisko naturalne.

Osoby o demokratyczno-liberalnych poglądach dodają zazwyczaj jeszcze takie czynniki, jak:

  • prowadzenie do większej równości (płci, ras itp.),
  • większa demokratyzacja świata.
Odpowiedź wygenerowana przez ChatGPT

Myślę jednak, że warto na potencjalne dobro płynące z AI spojrzeć z perspektywy pojedynczego człowieka. Kiedy mówimy ogólnie o ludzkości, czasem tracimy tę perspektywę z oczu. Zauważmy, że pytanie „co jest dobre dla pojedynczego człowieka, dla mnie?” mocno zależy od filozofii, którą przyjmujemy. Dlatego na pewno nie każdy się ze mną zgodzi, ale według mnie, aby można było powiedzieć, że AI prowadzi do dobra konkretnego człowieka, musi spełniać następujące założenia:

  • umożliwi (a przynajmniej nie utrudni) człowiekowi pełny rozwój duchowy, psychiczny i fizyczny,
  • w konsekwencji człowiek zwiększy swoje możliwości (po prostu będzie mądry i skuteczny życiowo – będzie wiedział, co jest jego dobrem i daje szczęście, będzie w stanie lepiej stawiać sobie cele i bardziej skutecznie je realizować, będzie samodzielnie myślał),
  • zwiększy zakresu wolności wewnętrznej człowieka (większa siła charakteru i konsekwencja w dążeniu do celów, większa samodzielność działań),
  • zwiększy zakresu zewnętrznej wolności człowieka (większe zabezpieczenie prywatności, większe możliwości działania, brak kontroli ze strony państwa lub firm), z tym związane jest też zdrowie i kwestie materialne,
  • ułatwi budowanie prawdziwych, silnych i szczęśliwych relacji z innymi ludźmi, pozytywny wpływ na rodziny i inne wspólnoty.

Co zrobić, by zmiany były pozytywne

Poniżej kilka pomysłów, co zrobić, by zrealizować powyższe kryteria.

  1. Perspektywa ogólna

Jest wiele rzeczy niecharakterystycznych dla AI, które należy robić, aby skutki zmian były pozytywne.

Przede wszystkim skutki zależą od moralnej postawy osób odpowiedzialnych za tworzenie i zastosowanie tych systemów. Wiele osób słusznie wskazuje, że AI to narzędzie samo w sobie neutralne. Wszystko zależy od tego, jak zostanie użyte. Jeśli osoby niezwykle wpływowe realizują swoją wizję świata poprzez rozwój tych algorytmów, a ta wizja rozmija się z rzeczywistym dobrem człowieka (bo np. ich celem jest tylko zdobycie większego bogactwa, władzy lub kontroli nad innymi), to jest oczywiste, że wpływ AI będzie negatywny. To dotyczy także w pewien sposób osób zaangażowanych na każdym szczeblu.

Dlatego rozwój technologii zawsze musi iść w parze z rozwojem moralnym ludzi. Już wiemy, że rozwój modeli generatywnych, takich jak czat GPT ma tak ogromny wpływ na życie i potrzeba naprawdę wielkiego wysiłku i ostrożności, by to prowadziło do dobra. Dlatego tym bardziej potrzeba nam wielu wysiłków, by stawać się coraz bardziej moralnymi osobami, dokonującymi właściwych wyborów w naszym prywatnym życiu, dbającymi o dobro innych osób.

Musimy ponadto przestrzegać ogólnych zasad dobrego rozwoju, takich jak:

  • niwelowanie negatywnych skutków obecnego rozwoju technologii: zachęta do uniezależniania się od niej (np. godziny bez smartfonu), do budowania relacji międzyludzkich, do kontaktu z naturą,
  • dużo wymiany myśli, debat, dyskusji, wypracowywania rozwiązań na różnych szczeblach. Ich przedmiotem powinna być nie tylko technologia, ale przede wszystkim zagadnienia religijne, filozoficzne i etyczne – jaka jest natura człowieka, czy czym jest dobro człowieka.
  • zasadniczo wsparcie i otwartość na inicjatywę i pomysłowości ludzi,
  • organiczona rola państwa (i organizacji międzynarodowych), które powinno ingerować tylko w sytuacjach, kiedy nie udaje się wypracować rozwiązań na poziomie niższych organizacji (czyli np. ochrona przed monopolami wielkich korporacji, zapewnienie odpowiedniej i sprawiedliwej przestrzeni prawnej),
  1. Perspektywa związana z AI

Można podjąć również kilka działań, które powinny odpowiadać na wyzwania związane typowo z obecną sytuacją w AI.

  1. Przedstawianie AI we właściwy sposób.

Wyeliminowanie mylącej w pewnym sensie nazwy „sztuczna inteligencja” nie jest zapewne możliwe na tym etapie. Warto jednak edukować, na czym polegają sieci neuronowe i jak daleko im do rzeczywistego działania biologicznych sieci neuronowych. W opisie algorytmów AI należy unikać antropomorfizacji (np. zwrotów typu, że AI coś „wie”, „rozumie”, „chce”), gdy piszemy o działaniach algorytmów.

  1. Edukowanie, jak we właściwy sposób korzystać z AI.

Ważne jest, aby ludzie byli edukowani w zakresie odpowiedniego korzystania z narzędzi opartych na sztucznej inteligencji. Należy promować świadomość ograniczeń algorytmów AI oraz zachęcać do krytycznego myślenia i oceny informacji generowanych przez te systemy. Ograniczone zaufanie do decyzji podejmowanych przez AI oraz utrzymanie własnego myślenia i zdrowego sceptycyzmu pozwoli uniknąć błędnych lub nieodpowiednich wniosków.

Należy uwrażliwiać również na kwestie prywatności (zwracanie uwagi, jakie treści i w jakich miejscach umieszczamy, jakie są warunki ich przetwarzania itp.).

  1. Przejrzystość działań i interesów organizacji rozwijających AI.

Aby zapobiec nadmiernemu skupieniu władzy i wpływu w rękach wielkich korporacji, należy promować równość szans dla mniejszych firm i startupów zajmujących się sztuczną inteligencją. Tworzenie warunków sprzyjających innowacjom i konkurencji może przyczynić się do większej różnorodności i odpowiedzialności w tej dziedzinie. Ponadto, badania prowadzone nad sztuczną inteligencją powinny być jawne i poddane rozsądnym ograniczeniom. 

Podsumowanie

Myślę, że do obecnej sytuacji należy podchodzić z dużą powagą oraz rozwagą. Stworzyliśmy naprawdę potężne narzędzia. Ich wpływ na społeczeństwa na pewno będzie kolosalny. Jestem jednak daleki od bezsensownego straszenia, a tym bardziej próby zatrzymania rozwoju.

W moim wpisie podałem kilka zasad oraz pomysłów, co można zrobić, by właściwie ukierunkować rozwój AI. Warto, by pomysłów pojawiało się coraz więcej, by były one dyskutowane i realizowane.

Oczywiście możliwości i odpowiedzialność osób za ten rozwój jest bardzo różna. Od osób zupełnie niezwiązanych z tą technologią, które raczej powinny zadbać głównie o własny rozwój i właściwe zrozumienie i użycie tych technologii, poprzez inżynierów, którzy więcej rozumieją z działania algorytmów i mogą skutecznie edukować swoje otoczenie, aż do osób na stanowiskach decyzyjnych, które odpowiadają najwięcej za to, jaki kształt przybierze wdrożone rozwiązanie.

Chciałbym aby ten artykuł wpisał się w toczącą się debatę jako jeden z punktów widzenia. Zachęcam do dyskusji.