Kategorie:

Sztuczna inteligencja wzorem dla ludzi?

Ze sztuczną inteligencją (AI),
rozumianą jako oprogramowanie, algorytmy wykorzystujące uczenie maszynowe,
sieci neuronowe, czy eksplorację danych, mamy do czynienia coraz częściej w
naszym codziennym życiu, zwykle nawet nie zdając sobie z tego sprawy. Choćby
wchodząc na portal Facebook jesteśmy przez nie „skanowani” wzdłuż i wszerz, na
przykład do celów marketingowych – do wciskania nam reklam takich, które
zwiększają szansę, że coś kupimy, czy do kontrolowania publikowanych treści.

sztuczna inteligencja

Sztuczna inteligencja może być i
jest wykorzystywana w bardzo wielu dziedzinach życia, których zakres
dostępności dla AI stale rośnie. Głównie służy do wzbogacania się rozmaitych
firm przez zwiększenie ich wydajności, zmniejszenie zapotrzebowania na ludzkich
pracowników, wzrost sprzedaży itd. Jest też obecna w medycynie czy badaniach
naukowych, jak na przykład w poszukiwaniu
nowych potencjalnych antybiotyków.

Przeczytaj także: Czy ptaki to dinozaury?

Zastosowanie sztucznej
inteligencji i jego skutki mogą być różne, zależnie od konkretnego rodzaju
wykorzystanego oprogramowania, skali jego wdrożenia, celu dla którego je
wykonano czy obszaru, w którym efekty stosowania AI oceniamy. Sztuczna
inteligencja może nieść bardzo wiele korzyści i wobec tego wzbudza spory
optymizm, również u mnie (choćby ze względu na zdolności wnioskowania na
podstawie gigantycznych zbiorów danych czy wyszukiwania korelacji i zależności
standardowo trudnych do zidentyfikowania), ale nie wolno zapominać o związanych
z nią zagrożeniach, badaniu ich, edukowaniu o nich, wykluczaniu z wirtualnych
systemów, obostrzaniu prawnym ich wykorzystania, by minimalizować negatywne
oddziaływanie.

Chociaż obawy wokół wykorzystania
szeroko rozumianej sztucznej inteligencji skupiają się bardziej na systemach
rozpoznawania twarzy, internetowej inwigilacji, zastępowaniu ludzkich miejsc
pracy czy wzmacnianiu nierówności społecznych, klasowych, dochodowych, to
niedawne badanie opublikowane w dziale opinii czasopisma „Frontiers in Psychology”,
autorstwa prof. Michała Klichowskiego z Uniwersytetu im. Adama Mickiewicza w
Poznaniu (UAM) podsunęło także obawę co do
naśladowania AI przez ludzi.

Przeczytaj także: Co to jest denializm?

Istnieje zjawisko polegające na
naśladowaniu innych, jeżeli nie ma się wiedzy na temat okoliczności, w których
się znalazło. Tak zwane podążanie za tłumem (nawet jeśli tłum postępuje głupio),
czyli koncepcja społecznego dowodu słuszności, może dotyczyć obierania za wzór
nie tylko ludzi bądź zachowań obejrzanych w filmie czy serialu, ale także
sztucznej inteligencji, co zasugerowało właśnie badanie prof. Klichowskiego,
które było dwutorowe – ankietowe i eksperymentalne. W części ankietowej,
zrobionej z wykorzystaniem portalu Facebook, udział wzięło 1500 osób, z czego
około 1200 to były kobiety, a w części eksperymentalnej na 55 uczestników aż 52
było kobietami. „W badaniach, w których biorą udział ochotnicy, zawsze dominują
kobiety. Kobiety zdecydowanie częściej zgłaszają chęć udziału w eksperymentach”
– tłumaczy prof. Klichowski.

W badaniu ankietowym chodziło o
podanie, kto spośród 6 wskazanych osób jest terrorystą chcącym zabić
pozostałych. Do oceny posłużyły profile założone dla owych sześciu
potencjalnych terrorystów na potrzeby eksperymentu. Część badanych musiała
podjąć decyzję bez żadnej pomocy, a reszta miała „wsparcie” ze strony sugestii
odnośnie tego, kogo za terrorystę uznała „sztuczna inteligencja” (w
rzeczywistości nie była to wcale sztuczna inteligencja, znaczenie ma tu jedynie
fakt, że za taką brali ją badani). Osoby bogatsze o opinię „AI” najczęściej
wybierały właśnie to, co „wybierała” i ona, chociaż jej „wybór” kierował na
błędną odpowiedź (nie było odpowiedzi prawidłowych, a jedynie wyraźnie błędne).
Dla sprawdzenia, czy wybór wynikał z sugerowania się „sztuczną inteligencją”,
osoby zaznaczające to, co podpowiadała „AI” musiały wypełnić jeszcze dodatkowy
arkusz z pytaniami dotyczącymi powodu podjęcia takiej decyzji.

Przeczytaj także: Teorie spiskowe na temat nowego chińskiego koronawirusa

W części eksperymentalnej
uczestnicy badania byli świadkami, jak robot, kierujący się według podanej im
informacji oprogramowaniem typu sztucznej inteligencji, wskazuje kto jest jego
zdaniem terrorystą z dostępnych opcji. Ich zadaniem było zdecydowanie, czy
zgadzają się z opinią (fałszywej) AI. 85% badanych poparła decyzję robota
twierdząc, że AI podejmuje decyzje lepsze od ludzi. Wyniki zarówno badania
ankietowego, jak i eksperymentalnego, pokazały że ludzie uważają, że AI podsuwa
dobre/lepsze decyzje. Może się więc w przyszłości okazać, że na dowód
społecznej słuszności ludzi nabierać będzie mogła sztuczna inteligencja bądź
to, co ludzie myślą, że nią jest.

Przyznam, że sam mając podpowiedź
AI w jakiejkolwiek kryzysowej sytuacji, zapewne bym się nią sugerował. To
badanie uświadomiło mi, że w takiej chwili trzeba się przede wszystkim upewnić,
czy otrzymane wskazówki naprawdę wygenerowała sztuczna inteligencja, czy nie
jest to oszustwo, podpucha, sposób manipulacji. I jeżeli to naprawdę ona, to
mieć świadomość, że nie musi mieć racji lub jej wybór niekoniecznie będzie
najlepszym – wszystko zależy od tego, jaka to dokładnie AI, co zbadała, jaki
wynik „wypluła” itd. Problem w tym, że podążanie za tłumem czy innym wzorcem w
kryzysowych i stresowych sytuacjach raczej nie sprzyja weryfikowaniu takich
rzeczy.

Przeczytaj także: Gdzie szukać wiarygodnych informacji?

Zastanawiam się też, jak
zmieniałyby się wyniki tego badania w zależności od tego, czy poddalibyśmy mu
sceptyków bądź entuzjastów nowych technologii i oprogramowania, ludzi wrogich
AI albo osoby, które wcześniej zweryfikowano pod kątem tego, że nie wiedzą
nawet na najbardziej podstawowym poziomie czym może być sztuczna inteligencja.
Z kolei prof. Klichowski zapytany przeze mnie o ten wątek odpowiedział, że warto
byłoby w przyszłości zbadać ekspertów od AI, którzy z uwagi na swoją wiedzę i
świadomość luk, braków czy słabości AI, mogliby się okazać bardziej sceptyczni
wobec decyzji, jakie podaje. „Osoby, które wiedzą czym jest AI i jak działa,
nie będą jej ślepo ufać” – skomentował badacz.

Niewątpliwie potrzebujemy
edukacji na temat tego, czym sztuczna inteligencja jest, jakie są jej rodzaje
(i które są powszechnie wdrażane, a które jeszcze się nie spopularyzowały bądź
w ogóle jeszcze ich nie stworzono i definiowane są wyłącznie hipotetycznie), do
czego jest i może być w przyszłości wykorzystywana, jakie daje nadzieje czy
które problemy może rozwiązywać, ale również że niewłaściwie wykorzystywana,
czy to z powodów niezłośliwych (np. błędu) czy złej woli (skoncentrowanych
działań w celu prowadzenia np. dezinformacji czy bogacenia się pojedynczych
jednostek lub firm kosztem reszty społeczeństwa czy wycinania konkurencji),
może przynosić szkody i stanowić pewne zagrożenie.

Przeczytaj także: 6
ważnych spraw, którymi trzeba się zająć po pandemii

„To, co możemy zrobić, to nie
tylko rozwijać AI, ale też pokazywać uczniom, czy szerzej, społeczeństwu, jakie
ma możliwości, i jakie są jej ograniczenia. Nie tylko eksperci powinni to
wiedzieć. To powinna być wiedza w jakimś sensie powszechna” – ocenił prof.
Klichowski. Trudno się z taką opinią nie zgodzić, zważywszy na to, w jak wielu
dziedzinach AI jest dziś obecna, jak szybko się rozpowszechnia i jak dużą rolę
prawdopodobnie będzie odgrywała w przyszłości.

Artykuł napisałem w ramach
współpracy z Uniwersytetem im. Adama Mickiewicza w Poznaniu (UAM).

 

 

bioksiążka

 

Najnowsze wpisy

`

Liczba komentarzy: 4 na temat “Sztuczna inteligencja wzorem dla ludzi?

  1. Jednym z problemów AI jest o jak jest przedstawiana przez media i Hollywood. Ludzie którzy nie rozumieją jak to się buduje ani co wchodzi w ten proces i przez to mamy zakłamany wizerunek sztucznej inteligencji.
    Czy powinno być to nauczane? Oczywiście! Czy będzie i jak będzie to kolejny problem. AI jako dziedzina cały czas się rozwija, osiągnęliśmy bardzo dużo, ale jeszcze wiele przed nami…

  2. Ja sam przestałem ufać AI po tym, gdy nawigacja parę razy wykierowała mnie gdzie raki zimują 😉

    A tak poza tym, to polecam wszystkim czytanie Stanisława Lema, który o tych problemach rozmyślał już pół wieku temu! W szczególności świetnie wpisuje się w kontekst opisanego badania opowiadanie "Ananke" (1971r.) z "Opowieści o pilocie Pirxie", w którym młode pokolenie pilotów wolało zaufać głównemu komputerowi statku (jak się okazało błędnie wyuczonego), niż własnemu instynktowi – z tragicznymi dla siebie skutkami.

  3. Na pewno wzorem dla ludzi nie może być ignorancja, płaskoziemizm, antyszczepionkowizm czy obieranie gotowanych jajek ze skorupki od tego grubszego końca.

  4. Świetny artykuł! Oby jak najwięcej takich!
    Co myślicie o inteligencji w kontekście teorii informacji i koncepcji, że informacja genetyczna też musi być wynikiem działania inteligencji?
    Niedawno spotkałem się z tym stwierdzeniem i mnie nurtuje. Wiecie coś więcej na ten temat?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *