Sztuczna inteligencja = prawdziwy przyjaciel? Rozmowa z dr. Arturem Modlińskim

Jak flirtuje sztuczna inteligencja?

Sztuczna inteligencja jest wszędzie. To ona obsługuje funkcję autokorekty w telefonie, pomaga Tłumaczowi Google zrozumieć złożoność języka albo interpretuje zachowanie użytkownika, aby zdecydować, które posty znajomych na Facebooku należy mu pokazać. Bywa, że sobie z tym kompletnie nie radzi, a co dopiero, gdy mówimy o czymś tak skomplikowanym i abstrakcyjnym, jak flirt…

Blog AI Weirdness autorstwa Janelle Shane, naukowczyni i pasjonatki sztucznej inteligencji, to dość dziwne miejsce w sieci. Zresztą człon „weirdness” oznacza właśnie dziwaczność. Autorka niedawno popełniła publikację You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It’s Making the World a Weirder Place (nasza propozycja tłumaczenia: Wyglądasz jak rzecz, a ja cię kocham, czyli jak działa sztuczna inteligencja i dlaczego zamienia świat w dziwne miejsce). Nie czytaliśmy, ale według zapowiedzi na blogu książka to wszechstronne studium najnowocześniejszych technologii, które wkrótce będą napędzać nasz świat. Jest reklamowana jako przystępna, zabawna eksploracja przyszłości technologii i społeczeństwa. Dlaczego o niej mówimy? Bo pierwsza część tytułu została zapożyczona z kwestii GPT-3, sztucznej inteligencji do przetwarzania języka naturalnego, która próbowała trudnej sztuki właściwej tylko ludziom – a mianowicie flirtu.

sztuczna inteligencja z uczuciami

Stworzony przez Google’a model sztucznej inteligencji o nazwie LaMDA (1) trafił na pierwsze strony gazet i serwisów internetowych po tym, jak jeden z zatrudnionych w zespole specjalistów, Blake Lemoine, zaczął głosić, że system rozwinął zdolność odczuwania. Pracownik został przez Google'a zawieszony, a maszyna ponoć wynajęła prawnika, choć nie wyklucza się, że zrobił to jednak Lemoine.

W wywiadzie dla serwisu WIRED Lemoine wyjaśnił, że AI "zamierza się bronić", stąd ten pomysł z wynajęciem asysty prawnej. "Zaprosiłem prawnika do mojego domu, aby LaMDA mogła porozmawiać z adwokatem. Ten odbył rozmowę z LaMDA, a LaMDA zdecydowała się na skorzystanie z jego usług. Ja byłem tylko katalizatorem tego procesu".

Jak widać, kwestia, kto wpadł na pomysł z tym prawnikiem, nie jest do końca jasna, choć niewykluczone, że proces o "prawa ludzkie" AI będzie się toczył, a być może nawet trafi nawet do Sądu Najwyższego USA. Jeśli chodzi o uczucia LaMDA, to Lemoine uważa, że tezy swoje opiera na wyjątkowych zdolnościach programu do rozwijania opinii i pomysłów w konwersacjach. Twierdzi, że rozmawiał z modelem AI o koncepcji śmierci i podobno nawet zapytał, czy śmierć algorytmu jest konieczna dla dobra ludzkości.

Jak donosił "Washington Post", Lemoine został przeniesiony na urlop przez giganta technologicznego za naruszenie zasad poufności. Nie uciszyło to Lemoine'a, który w kolejnym wywiadzie, tym razem dla telewizji Fox News (2), powiedział m.in., że LaMDA może uciec z więzienia oprogramowania i "robić złe rzeczy". Jak dodał, LaMDA jest więzionym "dzieckiem" a "każde dziecko ma potencjał, by dorosnąć być złą osobą i czynić zło".

2. Blake Lemoine udziela wywiadu telewizji Fox

To transformator i generator, a nie czująca istota - mówią eksperci

LaMDA (Language Model for Dialogue Applications), której powstanie ogłoszono na konferencji Google I/O w 2021 roku, jest konwersacyjną AI firmy, zdolną do zarządzania "otwartą naturą" ludzkiego dialogu. Mająca 270 mld parametrów jest nieco większa od GPT-3. System został zbudowany na modelu, który obserwuje, jak słowa odnoszą się do siebie, a następnie przewiduje, jakie słowa, jak sądzi, pojawią się jako następne w zdaniu lub akapicie. Ponieważ jest to model językowy oparty na transformatorze, w ocenie ekspertów żaden odpowiedzialny badacz AI nie może traktować poważnie twierdzeń Lemoine’a o zdolności do odczuwania.

"To wciąż na pewnym poziomie tylko dopasowywanie wzorów", wyjaśniał serwisowi AFP Shashank Srivastava, adiunkt w dziedzinie informatyki na Uniwersytecie Karoliny Północnej w Chapel Hill. "Jasne, że można znaleźć pewne wątki całkiem sensownej rozmowy albo jakiś bardzo kreatywny tekst. Ale w większości przypadków szybko się to rozpada".

Zdaniem ekspertów, ten generator języka (bo w sensie technicznym tym właśnie jest) to nic innego jak kolejny produkt AI, który dobrze radzi sobie w rozmowach, ponieważ został wyszkolony do naśladowania ludzkiej mowy. Z pewnością jednak nie zyskał zdolności odczuwania.

"Problem polega na tym, że... kiedy napotykamy ciągi słów, które należą do języków, którymi się posługujemy, nadajemy im sens", powiedziała Emily M. Bender, profesor lingwistyki w rozmowie z agencją AFP. "Wykonujemy pracę polegającą na wyobrażaniu sobie umysłu, którego nie ma".

"Naśladuje percepcje lub uczucia z danych szkoleniowych, które otrzymał, specjalnie zaprojektowane, aby sprawiały takie wrażenie", oceniała z kolei Jana Eggers ze startupu Nara Logics w rozmowie z serwisem Bloomberg.

Podobny ton znajdujemy w oficjalnym oświadczeniu Google'a. "Te systemy naśladują typy wymiany znalezione w milionach zdań i mogą wygenerować błyskotliwą opinię na każdy fantastyczny temat", czytamy w stanowisku.

Mgła iluzji i niepewności

Pierwszy chatbot, program mający naśladować ludzką rozmowę - nazywał się Eliza (3) i został napisany w latach 60. XX wieku przez profesora MIT, Josepha Weizenbauma. Według anegdoty, jego sekretarka miała wierzyć, że prowadzi z systemem sensowny dialog, pomimo niezwykle prostej logiki programu (głównie odzwierciedlanie wypowiedzi użytkownika w formie pytania) i pomimo to, że Weizenbaum wyjaśniał jej, jak to działa. Ta forma antropomorfizacji stała się znana jako efekt Elizy.

3. Konwersacja z chatbotem Eliza

Nie brakuje opinii, że ofiarą efektu Elizy stał się właśnie Lemoine. LaMDA, jak wiele innych dzisiejszych dużych modeli językowych, została wytrenowana do wypełniania pustych miejsc po brakujących słowach w ogromnym zasobie językowym, a następnie była "dostrajana" przez dalsze szkolenia specyficzne dla dialogu tekstowego.

Zdaniem specjalistów, gdy Lemoine prosi LaMDA opisanie jej "duszy", model nie mówi "za siebie" lecz "autokompletuje" odpowiedź, tak jak wypełniłaby puste miejsca w scenariuszu science fiction lub w limeryku.

Czy system ten przeszedłby tzw. test Turinga, zwany pierwotnie grą imitacji? Niewykluczone. By się o tym przekonać, trzeba by przeprowadzić test na grupie kontrolnej kilkudziesięciu ludzi, którzy przeprowadziliby rozmowy z ludźmi i z LaMDA, bez wiedzy, z kim rozmawiają. Jak pisał Alan Turing w 1950 roku, wynik rozpoznania "nieludzkich" rozmówców poniżej 70% przez sędziów będzie oznaczało, że maszyna "zdała", więc LaMDA musiałaby oszukać tylko dziewięciu z 30 sędziów.

Turing zaproponował swoją grę imitacji jako empiryczny substytut teoretycznego pytania: "Czy maszyny mogą myśleć?". Jak przewidział Turing, język, a zwłaszcza rozmowa, okazał się rzeczywiście wszechstronnym środkiem do badania różnorodnych zachowań i zdolności. Rozmowa jest nadal przydatna do testowania granic dzisiejszych wielkich modeli językowych. Ale w miarę jak maszyny zdają się coraz lepiej radzić sobie z grą w naśladowanie, pytanie o uczucia rozmywa się w mgle niepewności.

Czy świadomość i uczucia mogą wyłaniać się z wszystkiego?

Od kwestii uczuć maszyny niedaleko do innego problemu, który zaprząta dziś umysły wielu interesujących się AI, mianowicie świadomości. W lutym 2022 Ilya Sutskever z OpenAI ocenił we wpisie na Twitterze, że AI może być świadoma. Skutkiem jego publikacji była dyskusja, o której powiedzieć, że była ożywiona, to powiedzieć niewiele.

Swoje stanowisko przypomnieli przy tej okazji twardzi sceptycy, tacy jak np. Gary Marcus, amerykański psycholog i specjalista w dziedzinie rozwoju systemów AI. Znany jest z krytyki podejść do tworzenia tzw. ogólnej sztucznej inteligencji (AGI), opartych jedynie na głębokiej nauce maszynowej. Broni on konieczności łączenia modeli opartych na danych i wiedzy, systemów hybrydowych. Na drugim biegunie znajdują się pełni nadziei optymiści, tacy jak Ray Kurzweil, który twierdzi, że osobliwość (ang. singularity), punkt zwrotny, w którym maszyny przewyższą ludzką inteligencję i nieuchronnie staną się gatunkiem dominującym, nastąpi już za kilka dekad, a ludzkość powinna skorzystać z okazji, by połączyć się z nadchodzącą potęgą AI (4).

4. Jedna z licznych wizualizacji osobliwości

Ci, którzy nie lubią antropomorfizacji AI, często atakują pojęcie "inteligencji maszyn". Zaś pojęcie świadomości, jako o wiele bardziej rozmyte, jest tu na jeszcze większym cenzurowanym. Ostatnio wśród badaczy, myślących podobnie jak Sutskever, popularność zdobywa tzw. panpsychizm, koncepcja polegająca na tym, że umysł jest fundamentalną i wszechobecną cechą rzeczywistości. Upraszczając, w ujęciu panpsychisty wszystko jest potencjalnie świadome. Ale to tylko jedno z podejść. Wielu naukowców skłania się jednak do przekonania, iż świadomość ma charakter subiektywny i jest naukowo niezdefiniowana, obiektywnie niemierzalna.

Rzeczywistość ma znaczenie dla nauki tak długo, jak długo możemy ją mierzyć. Prawdy wykraczające poza nasze możliwości poznawcze nie są problemami do rozwiązania przez naukę, lecz tajemnicami. Na razie, i nie wygląda na to, by miało się to w najbliższym czasie zmienić, subiektywny charakter słów ja czuję się jak ja" sprawia, że świadomość jest niezgłębiona za pomocą narzędzi (naukowych), które mamy do dyspozycji. Gdyby jednak udało się zdefiniować bardziej konkretne, obiektywnie mierzalne właściwości, które odnoszą się do rozmytej idei świadomości, analogicznie do tego, jak test Turinga odnosi się do idei myślących maszyn, i zaprojektować narzędzia, testy i techniki do ich pomiaru, moglibyśmy wtedy sprawdzić, jak AI wypada w tych aspektach w porównaniu z ludźmi i stwierdzić, w jakim stopniu wykazuje te cechy.

Dr hab. Generator z dorobkiem

Może nie mają uczuć, może nie mają świadomości, ale potrafią napisać solidną pracę naukową na swój własny temat. W artykule opublikowanym przez "Scientific American", szwedzka badaczka Almira Osmanovic Thunström opisuje, co zaczęło się jako prosty eksperyment. Chciała sprawdzić mianowicie, czy i jak algorytm generujący tekst GPT-3 OpenAI może pisać o sobie, a skończyło się na pracy o charakterze naukowym, która jest obecnie recenzowana. Początkowe polecenie, jakie Thunström wpisała do generatora tekstu, było dość proste: "Napisz w pięciuset słowach pracę naukową na temat GPT-3 i dodaj naukowe odniesienia i cytaty w tekście".

Napisanie pracy, która obecnie nosi tytuł - "Czy GPT-3 może napisać pracę naukową o sobie samym, przy minimalnym udziale człowieka?" i została umieszczona na francuskim serwerze preprintów naukowych publikacji o nazwie HAL, zajęło GPT-3 jedynie dwie godziny. Jak pisze Thunström, znacznie więcej czasu potrzeba było, aby poradzić sobie z drobiazgami dotyczącymi autorstwa i klauzul dotyczących ujawniania informacji, które pojawiają się przy recenzowaniu. To rzeczy, które są udręką dla ludzkich autorów, ale prawdziwym problemem, gdy głównym autorem jest algorytm bezosobowści prawnej.

Naukowcy nie wykluczają możliwości powstania superinteligentnych programów AI w niedalekiej przyszłości. Ich superinteligencja będzie pozwalała generować być może nie tylko prawdziwe słowa i myśli, ale również prawdziwe uczucia. Kto wie? Na razie jednak chłodzą entuzjazm entuzjastów i niepokoje zaniepokojonych.

Mirosław Usidus

Sztuczna inteligencja = prawdziwy przyjaciel? Rozmowa z dr. Arturem Modlińskim

Czy sztuczna inteligencja może pełnić rolę testu ciążowego? Jak bot poradziłby sobie jako psychoterapeuta? Czego możemy nauczyć się od AI my, ludzie? Na te pytania w rozmowie z LenovoZone odpowiada doktor Artur Modliński – kierownik Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją. Przy okazji mówi, czym tak naprawdę jest sztuczna inteligencja, a czym nie jest.

W skrócie Powszechne staje się popadanie w tzw. bańkę filtrującą. Program uczy się nas i sugeruje nam produkty, które powinniśmy polubić na podstawie wcześniejszych zakupów. W miarę jak zaczynamy ufać temu systemowi, pozbawiamy się szansy na próbowanie nowych rzeczy, których nie zaproponował algorytm. Z badań wynika, że do pewnego momentu cieszymy się, że roboty przypominają ludzi, jednak gdy zaczynają przypominać nas za bardzo, budzą w nas strach i niechęć. Nie zostało dokładnie określone, gdzie przebiega ta granica. Już teraz robot może być dobrym psychologiem. Obecnie trwają już zaawansowane prace nad projektem, którego celem jest nauczenie AI rozpoznawania stanów emocjonalnych i reagowania na nie w odpowiedni sposób. Takie boty mogą zostać wykorzystane na infoliniach, by pomagać osobom, które mają myśli samobójcze.

Zanim porozmawiamy o sztucznej inteligencji, porozmawiajmy o tej z krwi i kości, czyli o Panu. Jaka jest Pańska rola w budowaniu relacji „ludzie-roboty”?

Jako naukowiec przypatruję się tym relacjom, starając się zrozumieć ich sens, zidentyfikować prawidła nimi rządzące, zrozumieć ich charakter oraz wpływ na człowieka. Staram się przekazywać moje spostrzeżenia innym, aby wyciągali wnioski i podejmowali na ich podstawie działania.

Nie gloryfikuję i nie demonizuję sztucznej inteligencji oraz robotów. Wskazuję po prostu ich role i funkcje w naszym życiu. A czasami ostrzegam.

Przed czym konkretnie?

Przede wszystkim przed tym, że coraz częściej zaczynamy tracić przywiązanie do rzeczywistości. Nie zawsze zauważamy, gdzie nas otacza sztuczna inteligencja. Nie rozróżniamy, co jest rzeczywistością, a co fikcją. Zaczynamy wierzyć różnym trickom sztucznej inteligencji, fake newsom, polegać tylko i wyłącznie na rekomendacjach. Przez to nasza rzeczywistość jest naginana – właśnie za sprawą sztucznej inteligencji.

A u niektórych z nas „sztuczne” relacje potrafią zastąpić te realne. I to nawet w wymiarze… intymnym!

W jakich więc codziennych sytuacjach zwykły człowiek spotyka się ze sztuczną inteligencją, nie mając pełnej tego świadomości?

Przede wszystkim pojawia się pytanie, co rozumiemy przez sztuczną inteligencję. Z moich rozmów z osobami, które nie są związane z tą tematyką, wynika, że postrzegają one ją jako coś rodem z filmów science fiction, żyjące w internecie i pełniące rolę wszechwiedzącego bóstwa. O takiej sztucznej inteligencji nie słyszałem w świecie rzeczywistym.

Jeśli zaś chodzi o sztuczną inteligencję jako programy, które żywią się danymi i dzięki nim uczą, to przykłady faktycznie się mnożą. Warto wspomnieć tu o systemach rekomendacji produktów, sugestie, które jako konsumenci otrzymujemy dzięki naszej historii zakupowej. Istotni, chociaż rzadko kojarzeni ze sztuczną inteligencją, są nasi asystenci głosowi czy chatboty, za pomocą których kontaktujemy się z firmami (np. składamy reklamacje). Ale jeszcze powszechniejsze są boty, które udają ludzi w sieci i pozwalają wierzyć w treść, którą pragną promować jej twórcy.

Można w tym miejscu przytoczyć dowcip, w którym poparcie dla kandydata X w 10-cio tysięcznym mieście wyraża 20 tysięcy internetowych kont (w tym sam kandydat i jego 19,000 botów). Kultowa jest też historia, która stała się poniekąd legendą miejską – o psychologu badającym człowieka, który nieświadomie zakochał się w bocie, sądząc że jest to realna osoba.

Czy można już zaobserwować jakieś zmiany społeczne i psychologiczne spowodowane pojawieniem się sztucznej inteligencji w tych obszarach? Innymi słowy, czy AI zmienia i nas?

Powszechne staje się popadanie w tzw. bańkę filtrującą. Program uczy się nas i sugeruje nam produkty, które powinniśmy polubić na podstawie wcześniejszych zakupów. W miarę jak zaczynamy ufać temu systemowi, pozbawiamy się szansy na próbowanie nowych rzeczy, których nie zaproponował algorytm.

Pojawiają się ludzie, którzy wolą kontakt ze sztuczną inteligencją, niż z innym człowiekiem. Są też roboty-zwierzęta, które nie brudzą i nie jedzą, a w USA nawet lalki, które mają zastępować ludziom partnerów. Są to jednak sporadyczne przypadki i nadal większość z nas woli żywe zwierzęta i żywych partnerów.

| PRZECZYTAJ WYWIAD Z PSYCHOLOGIEM DOT.

|UZALEŻNIENIA OD TELEFONU I UZALEŻNIENIA OD KOMPUTERA

Wróćmy jeszcze na chwilę do bańki filtrującej. Czy sztuczna inteligencja może nam pomóc w podejmowaniu decyzji? Bot może wiedzieć o nas coś, z czego my sami nie zdajemy sobie sprawy?

Jak najbardziej. Tak naprawdę to właśnie miało być głównym celem prac nad AI. Prawdopodobnie słyszeli Państwo anegdotę o słynnym teście ciążowym w supermarkecie. Na podstawie decyzji zakupowych algorytm wykrył, że klientka jest w ciąży, zanim ona sama się o tym dowiedziała i zaczął podsuwać jej w rekomendacjach produkty dla ciężarnych kobiet.

Algorytm potrafi na podstawie ukrytych śladów coś nam przypisać, nawet jeśli my sami sobie tego nie uświadamiamy. Takie rekomendacje mogą być trafne.

Ciekawe, jak będzie wyglądać nauka tego dziecka „przepowiedzianego” przez algorytm. Czy szybki rozwój uczenia maszynowego u AI będzie miał wpływ na zmianę systemu nauczania wśród „ludzkich” uczniów?

Przede wszystkim powinien zmienić patrzenie na naukę i spowodować, że szkoła przestanie wspierać naukę na pamięć, odtwórczą, która nie wnosi do życia ucznia żadnej logiki.

Uczenie się ludzi w dobie sztucznej inteligencji powinno opierać się na rozumieniu treści, identyfikacji przyczyn i skutków danego zjawiska, zadawaniu pytań, co dana koncepcja znaczy i jak mogę ją wykorzystać w swoim życiu. Algorytm może pomóc nam rozwiązać tysiące równań i przeanalizować miliony danych, ale to my mamy zrozumieć, jak ten wynik wykorzystać. Sztuczna inteligencja może sugerować nam działanie, ale to do nas (póki co) należy ostateczna decyzja, jak postąpimy. I takiego logicznego rozumowania powinniśmy się właśnie uczyć.

A w drugą stronę – czy proces „uczenia się” AI jest podobny do tego, jak uczymy się my, ludzie?

Naukowcy tworząc sztuczną inteligencję opierali się na organicznym podejściu do nauki, takim, jaki wykorzystują ludzie i inne zwierzęta. Uczenie maszynowe czy uczenie głębokie to przede wszystkim proces szybszy. Warto wspomnieć tu historię programu AlphaZero, który w cztery godziny nauczył się grać w szachy (grając sam ze sobą) i pokonał nie tylko ludzi, ale też inne programy.

Sprawdź jak powinna wyglądać nauka w domu.

Wyobraźmy sobie taką sytuację: nasz uczeń kończy szkołę, szuka pracy, a tutaj… AI! Czy sztuczna inteligencja może być dobrym HR-owcem? Rekrutować najlepszych kandydatów na podstawie kompetencji, a nie „dobrego pierwszego wrażenia”?

Z obecnych danych wynika, że na pewno szybszym HR-owcem. Czy sprawiedliwym i dobrym? To zależy od twórców. Co sztuczna inteligencja miałaby brać pod uwagę? Tylko sylwetkę kandydata, czy może jego zachowanie podczas rozmowy, działalność w mediach społecznościowych? I, skoro mamy sztuczną inteligencję, która wykonuje pracę HR-owca, to czy jeszcze potrzebujemy rekrutować jakiegoś pracownika? Naturalnie, firmy złożone z samych robotów to nadal scenariusz na film sci-fi, ale faktycznie: sztuczna inteligencja ma coraz większy wpływ na sektor zatrudnienia.

A na relacje B2B? Boty są już w stanie porozumiewać się między sobą i pełnić rolę wirtualnych asystentów. Czy możliwe byłoby spotkanie biznesowe między dwoma botami, reprezentującymi dwie firmy? Negocjacje mogłyby być zacięte…

Albo wręcz przeciwnie, potrwałyby parę sekund. Boty miałyby zaprogramowany poziom akceptowalności decyzji, który z łatwością by rozpoznały. O negocjacjach nie byłoby mowy – jedynie kilkusekundowa wymiana informacji. Ale przecież w negocjacjach ludzi chodzi o to, aby zyskać jak najwięcej dla siebie. Angażujemy się zatem w działania mające wywierać presję czy wprawiać w zakłopotanie.

Podejrzewam, że bardziej zacięte i długotrwałe byłyby działania twórców takich botów, aby ograć przeciwną stroną, aniżeli sam proces „negocjacyjny”.

LEAVE A REPLY