Ze sztuczną inteligencją (AI), rozumianą jako oprogramowanie, algorytmy wykorzystujące uczenie maszynowe, sieci neuronowe, czy eksplorację danych, mamy do czynienia coraz częściej w naszym codziennym życiu, zwykle nawet nie zdając sobie z tego sprawy. Choćby wchodząc na portal Facebook jesteśmy przez nie „skanowani” wzdłuż i wszerz, na przykład do celów marketingowych – do wciskania nam reklam takich, które zwiększają szansę, że coś kupimy, czy do kontrolowania publikowanych treści.

sztuczna inteligencja


Sztuczna inteligencja może być i jest wykorzystywana w bardzo wielu dziedzinach życia, których zakres dostępności dla AI stale rośnie. Głównie służy do wzbogacania się rozmaitych firm przez zwiększenie ich wydajności, zmniejszenie zapotrzebowania na ludzkich pracowników, wzrost sprzedaży itd. Jest też obecna w medycynie czy badaniach naukowych, jak na przykład w poszukiwaniu nowych potencjalnych antybiotyków.

Przeczytaj także: Czy ptaki to dinozaury?

Zastosowanie sztucznej inteligencji i jego skutki mogą być różne, zależnie od konkretnego rodzaju wykorzystanego oprogramowania, skali jego wdrożenia, celu dla którego je wykonano czy obszaru, w którym efekty stosowania AI oceniamy. Sztuczna inteligencja może nieść bardzo wiele korzyści i wobec tego wzbudza spory optymizm, również u mnie (choćby ze względu na zdolności wnioskowania na podstawie gigantycznych zbiorów danych czy wyszukiwania korelacji i zależności standardowo trudnych do zidentyfikowania), ale nie wolno zapominać o związanych z nią zagrożeniach, badaniu ich, edukowaniu o nich, wykluczaniu z wirtualnych systemów, obostrzaniu prawnym ich wykorzystania, by minimalizować negatywne oddziaływanie.

Chociaż obawy wokół wykorzystania szeroko rozumianej sztucznej inteligencji skupiają się bardziej na systemach rozpoznawania twarzy, internetowej inwigilacji, zastępowaniu ludzkich miejsc pracy czy wzmacnianiu nierówności społecznych, klasowych, dochodowych, to niedawne badanie opublikowane w dziale opinii czasopisma „Frontiers in Psychology”, autorstwa prof. Michała Klichowskiego z Uniwersytetu im. Adama Mickiewicza w Poznaniu (UAM) podsunęło także obawę co do naśladowania AI przez ludzi.

Przeczytaj także: Co to jest denializm?

Istnieje zjawisko polegające na naśladowaniu innych, jeżeli nie ma się wiedzy na temat okoliczności, w których się znalazło. Tak zwane podążanie za tłumem (nawet jeśli tłum postępuje głupio), czyli koncepcja społecznego dowodu słuszności, może dotyczyć obierania za wzór nie tylko ludzi bądź zachowań obejrzanych w filmie czy serialu, ale także sztucznej inteligencji, co zasugerowało właśnie badanie prof. Klichowskiego, które było dwutorowe – ankietowe i eksperymentalne. W części ankietowej, zrobionej z wykorzystaniem portalu Facebook, udział wzięło 1500 osób, z czego około 1200 to były kobiety, a w części eksperymentalnej na 55 uczestników aż 52 było kobietami. „W badaniach, w których biorą udział ochotnicy, zawsze dominują kobiety. Kobiety zdecydowanie częściej zgłaszają chęć udziału w eksperymentach” – tłumaczy prof. Klichowski.

W badaniu ankietowym chodziło o podanie, kto spośród 6 wskazanych osób jest terrorystą chcącym zabić pozostałych. Do oceny posłużyły profile założone dla owych sześciu potencjalnych terrorystów na potrzeby eksperymentu. Część badanych musiała podjąć decyzję bez żadnej pomocy, a reszta miała „wsparcie” ze strony sugestii odnośnie tego, kogo za terrorystę uznała „sztuczna inteligencja” (w rzeczywistości nie była to wcale sztuczna inteligencja, znaczenie ma tu jedynie fakt, że za taką brali ją badani). Osoby bogatsze o opinię „AI” najczęściej wybierały właśnie to, co „wybierała” i ona, chociaż jej „wybór” kierował na błędną odpowiedź (nie było odpowiedzi prawidłowych, a jedynie wyraźnie błędne). Dla sprawdzenia, czy wybór wynikał z sugerowania się „sztuczną inteligencją”, osoby zaznaczające to, co podpowiadała „AI” musiały wypełnić jeszcze dodatkowy arkusz z pytaniami dotyczącymi powodu podjęcia takiej decyzji.

Przeczytaj także: Teorie spiskowe na temat nowego chińskiego koronawirusa

W części eksperymentalnej uczestnicy badania byli świadkami, jak robot, kierujący się według podanej im informacji oprogramowaniem typu sztucznej inteligencji, wskazuje kto jest jego zdaniem terrorystą z dostępnych opcji. Ich zadaniem było zdecydowanie, czy zgadzają się z opinią (fałszywej) AI. 85% badanych poparła decyzję robota twierdząc, że AI podejmuje decyzje lepsze od ludzi. Wyniki zarówno badania ankietowego, jak i eksperymentalnego, pokazały że ludzie uważają, że AI podsuwa dobre/lepsze decyzje. Może się więc w przyszłości okazać, że na dowód społecznej słuszności ludzi nabierać będzie mogła sztuczna inteligencja bądź to, co ludzie myślą, że nią jest.

Przyznam, że sam mając podpowiedź AI w jakiejkolwiek kryzysowej sytuacji, zapewne bym się nią sugerował. To badanie uświadomiło mi, że w takiej chwili trzeba się przede wszystkim upewnić, czy otrzymane wskazówki naprawdę wygenerowała sztuczna inteligencja, czy nie jest to oszustwo, podpucha, sposób manipulacji. I jeżeli to naprawdę ona, to mieć świadomość, że nie musi mieć racji lub jej wybór niekoniecznie będzie najlepszym – wszystko zależy od tego, jaka to dokładnie AI, co zbadała, jaki wynik „wypluła” itd. Problem w tym, że podążanie za tłumem czy innym wzorcem w kryzysowych i stresowych sytuacjach raczej nie sprzyja weryfikowaniu takich rzeczy.

Przeczytaj także: Gdzie szukać wiarygodnych informacji?

Zastanawiam się też, jak zmieniałyby się wyniki tego badania w zależności od tego, czy poddalibyśmy mu sceptyków bądź entuzjastów nowych technologii i oprogramowania, ludzi wrogich AI albo osoby, które wcześniej zweryfikowano pod kątem tego, że nie wiedzą nawet na najbardziej podstawowym poziomie czym może być sztuczna inteligencja. Z kolei prof. Klichowski zapytany przeze mnie o ten wątek odpowiedział, że warto byłoby w przyszłości zbadać ekspertów od AI, którzy z uwagi na swoją wiedzę i świadomość luk, braków czy słabości AI, mogliby się okazać bardziej sceptyczni wobec decyzji, jakie podaje. „Osoby, które wiedzą czym jest AI i jak działa, nie będą jej ślepo ufać” – skomentował badacz.

Niewątpliwie potrzebujemy edukacji na temat tego, czym sztuczna inteligencja jest, jakie są jej rodzaje (i które są powszechnie wdrażane, a które jeszcze się nie spopularyzowały bądź w ogóle jeszcze ich nie stworzono i definiowane są wyłącznie hipotetycznie), do czego jest i może być w przyszłości wykorzystywana, jakie daje nadzieje czy które problemy może rozwiązywać, ale również że niewłaściwie wykorzystywana, czy to z powodów niezłośliwych (np. błędu) czy złej woli (skoncentrowanych działań w celu prowadzenia np. dezinformacji czy bogacenia się pojedynczych jednostek lub firm kosztem reszty społeczeństwa czy wycinania konkurencji), może przynosić szkody i stanowić pewne zagrożenie.

Przeczytaj także: 6 ważnych spraw, którymi trzeba się zająć po pandemii

„To, co możemy zrobić, to nie tylko rozwijać AI, ale też pokazywać uczniom, czy szerzej, społeczeństwu, jakie ma możliwości, i jakie są jej ograniczenia. Nie tylko eksperci powinni to wiedzieć. To powinna być wiedza w jakimś sensie powszechna” – ocenił prof. Klichowski. Trudno się z taką opinią nie zgodzić, zważywszy na to, w jak wielu dziedzinach AI jest dziś obecna, jak szybko się rozpowszechnia i jak dużą rolę prawdopodobnie będzie odgrywała w przyszłości.

Artykuł napisałem w ramach współpracy z Uniwersytetem im. Adama Mickiewicza w Poznaniu (UAM).

Łukasz Sakowski. Czytaj więcej
    Skomentuj na blogu
    Skomentuj na facebooku

4 komentarze :

  1. Jednym z problemów AI jest o jak jest przedstawiana przez media i Hollywood. Ludzie którzy nie rozumieją jak to się buduje ani co wchodzi w ten proces i przez to mamy zakłamany wizerunek sztucznej inteligencji.
    Czy powinno być to nauczane? Oczywiście! Czy będzie i jak będzie to kolejny problem. AI jako dziedzina cały czas się rozwija, osiągnęliśmy bardzo dużo, ale jeszcze wiele przed nami...

    OdpowiedzUsuń
  2. Ja sam przestałem ufać AI po tym, gdy nawigacja parę razy wykierowała mnie gdzie raki zimują ;-)

    A tak poza tym, to polecam wszystkim czytanie Stanisława Lema, który o tych problemach rozmyślał już pół wieku temu! W szczególności świetnie wpisuje się w kontekst opisanego badania opowiadanie "Ananke" (1971r.) z "Opowieści o pilocie Pirxie", w którym młode pokolenie pilotów wolało zaufać głównemu komputerowi statku (jak się okazało błędnie wyuczonego), niż własnemu instynktowi - z tragicznymi dla siebie skutkami.

    OdpowiedzUsuń
  3. Na pewno wzorem dla ludzi nie może być ignorancja, płaskoziemizm, antyszczepionkowizm czy obieranie gotowanych jajek ze skorupki od tego grubszego końca.

    OdpowiedzUsuń
  4. Świetny artykuł! Oby jak najwięcej takich!
    Co myślicie o inteligencji w kontekście teorii informacji i koncepcji, że informacja genetyczna też musi być wynikiem działania inteligencji?
    Niedawno spotkałem się z tym stwierdzeniem i mnie nurtuje. Wiecie coś więcej na ten temat?

    OdpowiedzUsuń