Czy sztuczna inteligencja jest inteligentna?

Sztuczna inteligencja

W języku potocznym „sztuczny" oznacza to, co jest wytworem mającym naśladować coś naturalnego. W takim znaczeniu używamy terminu ,,sztuczny'', gdy mówimy o sztucznym lodowisku lub oku. Sztuczna inteligencja byłaby czymś (programem, maszyną) symulującym inteligencję naturalną, ludzką.

Od sztucznego wytworu nie oczekujemy, aby w pełni był podobny do swojego naturalnego odpowiednika. W wypadku sztucznego lodowiska nawet nie chcemy, by miało naturalne cechy lodowiska, które nie są potrzebne do spełnienia jego funkcji rekreacyjnej. W wypadku sztucznego oka chcielibyśmy, aby jego funkcjonalność była taka sama, jak zdrowego oka naturalnego. Zadowalamy się również rozwiązaniem, które pozwala przynajmniej symulować niektóre funkcje oka naturalnego.

W wypadku sztucznej inteligencji mamy na uwadze system, który realizowałby niektóre funkcje umysłu – czasami w sposób przewyższający funkcje naturalne (na przykład, aby był wolny od pomyłek przy liczeniu oraz defektów pamięci). Inteligencja jest właściwością umysłu. Składa się na nią szereg umiejętności, takich jak zdolność do komunikowania, rozwiązywania problemów, uczenia się i dostosowywania do sytuacji. Istotna jednak jest umiejętność rozumowania.

Do języka nauki termin ,,sztuczna inteligencja'' (Artificial Intelligence, skrótowo: AI) wprowadził John McCarthy (1927-2011), który w 1955 r. nazwał tak „the science and engineering of making intelligent machines" (naukę i inżynierię tworzenia inteligentnych maszyn).

Sztuczna inteligencja jest inteligencją przejawianą w działaniu programu, maszyny lub robota. AI to badanie i projektowanie inteligentnych agentów. Inteligentny agent to system, który rozpoznaje otoczenie i działa w nim maksymalizując szansę sukcesu. Inteligentny agent podejmuje właściwe decyzje ze względu na znane sobie dane i swoje możliwości działania.

Historia sztucznej inteligencji jest interesująca sama w sobie. Jest to opowieść o dążeniach człowieka, jego fascynacjach i rozczarowaniach, sukcesach i porażkach.

Człowiek konstruując maszyny zwielokrotniał swoje możliwości fizyczne. Tworząc sztuczną inteligencję dążył do zwielokrotnienia swoich możliwości umysłowych. Jak James Watt (1737-1819), twórca maszyny parowej, nie był w stanie przewidzieć skutków rewolucji przemysłowej, tak my dzisiaj tylko fantazjami sięgamy do przyszłych skutków rewolucji, którą spowoduje rozwój AI i jej zastosowań.

Oprócz wizji optymistycznych są też obawy. Stephen Hawking twierdzi, że „AI may spell the end of the human race" (AI może zapowiadać koniec ludzkiej rasy). Zwraca uwagę, że „All of us should ask ourselves what we can do now to improve the chances of reaping the benefits and avoiding the risks" (wszyscy powinniśmy się zapytać, co możemy uczynić, aby zwiększyć szanse na odniesienie korzyści i uniknięcie ryzyka).

Współczesne systemy sztucznej inteligencji są inteligentne tylko w ograniczonym obszarze. Na przykład komputer potrafi grać w szachy w taki sposób, że wygrywa z szachowym arcymistrzem. W 1996 r. Deep Blue wygrał jedną partię szachów z Garry Kasparowem, przegrywając cały mecz wynikiem 4:2 (przy dwóch remisach).

Później Deep Blue został ulepszony i nieoficjalnie nazwany „Deeper Blue". Zagrał ponownie z Kasparowem w maju 1997 roku. Mecz skończył się wynikiem 3½:2½ dla komputera. W ten sposób Deep Blue stał się pierwszym systemem komputerowym, który wygrał z aktualnym mistrzem świata w meczu ze standardową kontrolą czasu.

Jednak w odróżnieniu od Kasparowa, program komputerowy w meczu z 1997 r. był modyfikowany i uzupełniany w trakcie meczu o informacje z poprzednich partii.

Historia współczesnych prac nad sztuczną inteligencją zaczęła się na początku lat 50. ubiegłego wieku. W 1950 r. Allan Turing postawił pytanie: Can a machine think? (czy maszyna może myśleć?). Jego uniwersalna maszyna, nazywana dziś Uniwersalną Maszyną Turinga, została zaprojektowana do rozwiązywania zadań rachunkowych. Jeśli odpowiedzi, których udzieli komputer, nie będą różniły się od odpowiedzi, których udziela człowiek, to czy to wystarcza, aby uznać, że maszyna myśli? Jeśli człowiek dałby się zwieść, to maszyna przeszłaby Test Turinga i zostałaby uznana za maszynę myślącą.

Najwcześniejsze zastosowania AI koncentrowały się na grach i rozwiązywaniu ogólnych problemów. Pierwszy program AI, The Logic Theorist, został napisany w 1956 r. przez A. Newell'a, H. Simon'a oraz J. C. Shawa. Miał on znajdować rozwiązania równań. Gry były ważnym sposobem testowania algorytmów oraz technik inteligentnego podejmowania decyzji. Z grami eksperymentowano już w początkach lat 50. ubiegłego wieku. Pierwszym językiem programowania AI był stworzony w 1956 r. przez McCarthy'ego LISP (LISt Processing).

W 1966 r. Joseph Wiezenbaum stworzył program o nazwie „Eliza", który symulował psychologa prowadzącego interesujący dialog z pacjentem. W 1956 r. na uniwersytecie Stanforda powstał pierwszy system ekspertowy: Dendral Project. Był to pierwszy program, który naśladował wiedzę i analityczne umiejętności człowieka, eksperta w pewnej dziedzinie.

Rozwiązywanie specyficznych problemów jest celem słabej AI (weak AI), zaś silna AI (strong AI) ma na celu naśladowanie pełnego zakresu ludzkich możliwości poznawczych. Odnosimy sukcesy w zakresie słabej AI. Silna AI jest wciąż naszym marzeniem. Wyróżnia się dwie metodologie. Jedna, funkcjonalistyczna (top-down), bada ludzkie zachowania, druga, redukcjonistyczna (bottom-up), rozpoczyna badania na poziomie fizjologicznym, przechodząc do coraz większych struktur. Redukcjoniści wykorzystują wyniki innych dyscyplin (np. neuronauk i nauk biologicznych).

Badania z zakresu AI wymagają wiedzy kognitywistycznej o poznawaniu, procesach poznawczych i ich substratach oraz środowisku. Wiedzy tej dostarczają nauki biologiczne (np. neuronauki), humanistyczne (np. filozofia, językoznawstwo) i społeczne (np. psychologia, socjologia). Kognitywistyka jako nauka integruje te wyniki. Integracja wiedzy z jednej strony służy rozwojowi AI, z drugiej zaś inspiruje badania kognitywistyczne. Kognitywistyka korzysta z osiągnięć i narzędzi AI. Ma więc miejsce swoiste sprzężenie zwrotne między AI a kognitywistyką. Jedno jest potrzebne drugiemu i jedno inspiruje oraz stymuluje rozwój drugiego.

Na początku XXI w. AI stosowana jest właściwie wszędzie. O jej sukcesie zdecydowało wiele czynników. Przede wszystkim wzrost mocy obliczeniowej komputerów, rozwój technologii komunikacyjnych i ich infrastruktury, specjalizacja i wykorzystywanie wyników innych nauk, a ponadto kompetencje badaczy wykorzystujących metody matematyczne i stosujących rygorystyczne standardy metodologiczne.

Warto przeczytać:

Krzysztof Ficoń, Sztuczna inteligencja nie tylko dla humanistów, Warszawa: Wyd. BEL Studio, 2013. Mariusz Flasiński, Wstęp do sztucznej inteligencji, Warszawa: Wyd, Naukowe PWN, 2011. Richard Gregory, Mózg i maszyny, przeł. Leon Grobelski, seria: Prognozy XXI wieku, Warszawa: Prószyński i S-ka, 2000. Philip Johnson-Laird, Umysł i komputer, przeł. P. Jaśkowski, Poznań: Wyd. PROTEXT, 1999. Marek Kasperski, Sztuczna inteligencja. Droga do myślących maszyn, Gliwice: Helion, 2003. Witold Marciszewski, Sztuczna inteligencja, Kraków: Znak, 1998. Witold Marciszewski, Paweł Stacewicz, O zagadce umysłu z informatycznego punktu widzenia, Warszawa: Akademicka Oficyna Wydawnicza EXIT, 2011. Max Urchs, O Procesorach i procesach myślowych. Elementy kognitywistyki, Toruń: Wyd. Naukowe UMK, 2009.

Warto zobaczyć – filmy w języku angielskim o sztucznej inteligencji, robotyce kognitywnej i transhumanizmie

Przewodnik po informatyce

W tym rozdziale omówimy kilka inteligentnych systemów. Wiąże się to nieuchronnie z rozpatrzeniem również aspektów etycznych i filozoficznych — Czy naprawdę chcemy, aby maszyny przejmowany niektóre z naszych zawodów? Czy możemy im ufać? Czy pewnego dnia nie przekroczymy bariery i nie zrobimy jednego kroku za daleko? Co tak naprawdę rozumiemy przez powiedzenie, że komputer jest inteligentny? Nie odpowiemy na te pytania bezpośrednio w tym rozdziale. Jednakże zdobycie wiedzy technicznej na temat SI pozwoli ci podejmować bardziej świadome decyzje dotyczące bardziej skomplikowanych problemów.

Sztuczna inteligencja (w skrócie SI lub po angielsku AI) znana także jako inteligentne systemy, jest przede wszystkim nauką informatyczną, ale czerpie wiele pomysłów z innych dziedzin, w szczególności z matematyki (głównie logiki, kombinatoryki, statystyki, prawdopodobieństwa i teorii optymalizacji), biologii , psychologii , językoznawstwa , neurobiologii i filozofii .

Myśląc o sztucznej inteligencji, prawdopodobnie myślisz o przyjaznych systemach, które mogą z tobą rozmawiać i rozwiązywać trudne problemy albo o maniakalnych robotach, które są skłonne do dominacji nad światem. Naukowcy obiecują nam autonomiczne samochody, które będą bezpieczniejsze niż człowiek prowadzący auto. Możemy także usłyszeć o obawach o systemy wspomagania medycznego, które utrzymują życie ludzi w wirtualnych rękach. Sztuczna inteligencja jest obiecująco rozwiajającą się gałęzią informatyki, ale też stwarza wiele obaw. Może być używana do podejmowania decyzji w systemach tak dużych jak samolot czy automatyczna wywrotka , jak i małych, takich jak telefony komórkowe, które potrafią prezycyjnie przewidzieć wpisywany tekst. Ich wspólną cechą jest to, że próbują naśladować ludzką inteligencję. I co ważne, takie systemy mogą być znaczącym ułatwieniem w życiu codziennym.

Dla wielu ludzi jest oczywiste, że mogą łatwo rozmawiać z drugą osobą i wypowiedzieć własne zdanie o tej rozmowie. Zdolność do tego jest formą inteligencji. Dla komputerów nie jest to takie proste! Podjęto wiele prób zaprojektowania programów komputerowych, które mogą prowadzić rozmowę z człowiekiem i brzmieć inteligetnie. Te programy komputerowe nazywane są czatbotami (ang. chatbot, chatterbot) albo linguabotami.

Czatboty możesz spotkać w internecie w takich sytuacjach jak np. udzielanie pomocy na stronie rezerwacji biletu. Czasami nawet trudno stwierdzić, czy otrzymujesz automatyczną odpowiedź, czy rozmawiasz online z konsultantem. Zaczniemy od spojrzenia na kilka bardzo prostych czatbotów, które zostały zaprojektowane raczej jako eksperyment niż do oferowania poważnej pomocy.

Jednym z takich czatbotów jest Eliza, która stara się naśladować psychoterapeutkę rogeriańską i brzmi najbardziej inteligentnie w rozmowach, które miałyby miejsce podczas sesji terapeutycznej. Psychoterapia rogeriańska jest to technika, która polega na próbie zrozumienia pacjenta poprzez zadawanie pytań i przetwarzaniu fragmentów jego wypowiedzi w celu upewnienia go, że zostały one poprawnie zrozumiane.

Ostrzeżenie. Czatboty i informacje osobiste! ▼ Eliza jest systemem, który został stworzony, aby pokazać ludziom świat SI i nie powinna być używana do prawdziwych sesji terapeutycznych. Nigdy nie powinieneś podawać osobistych informacji komputerowi, tzn. takich, które nie chciałbyś, aby inni przeczytali. Nigdy nie możesz być pewien, że strona internetowa nie zbiera informacji i nie przekazuje ich dalej. Nie pisz Elizie takich rzeczy, które prawdziwy pacjent powiedziałby na sesji terapeutycznej — w czasie rozmowy z nią zmyślaj. Z tego samego powodu nie przekazuj żadnemu czatbotowi żadnych innych osobistych informacji, w szczególności imienia i nazwiska, daty urodzenia lub adresu.

Kliknij na poniższy link i rozpocznij rozmowę z Elizą w języku angielskim, (pamiętając, że została zaprojektowana jako psychoterapeutka rogeriańska, więc będzie odpowiadała w tym stylu).

Kliknij tutaj aby porozmawiać z Elizą.

Myślisz, że Eliza jest tak samo mądra jak człowiek? Czy uwierzyłbyś, że Eliza jest człowiekiem, jeśli ktoś inny by ci tak powiedział??

Prawdopodobnie zgodzisz się, że chociaż Eliza brzmi czasami trochę inteligentnie, to zadaje ona bardzo niejasne i ogólnikowe pytania. Zapomina o wcześniejszej części rozmowy i czasami mówi rzeczy, które brzmią bardzo dziwnie! Jako przykład przeanalizuj poniższą rozmowę:

Eliza: Cześć, Jestem Eliza.

Człowiek: Cześć, jestem człowiekiem.

Eliza: Czy wierzysz to, że to normalne być człowiekiem?

Człowiek: Tak.

Eliza: Jesteś pewny?

Człowiek: Tak.

Eliza: Dlaczego powtarzasz się?

Wypowiedzi Elizy są bardzo ogólnikowe. Korzysta z wbudowanych wzorów wypowiedzi lub opiera się tylko na ostatniej wpisanej przez ciebie linijce tekstu. Prowadzi to często do bardzo dziwnych konwersacji, takich jak ta powyżej! W tym przypadku, gdy powiedziałem, że jestem człowiekiem, wtedy Eliza użyła dopasowania wzorców do słów kluczowych i zapytała „Czy wierzysz w to, że to normalne być człowiekiem?”. Jeśli powiedziałbym „Jestem bananem”, wtedy ta sama reguła wygenerowałaby pytanie „Czy wierzysz w to, że to normalne być bananem?”. Gdy odpowiedziałem „Tak”, to właściwie Eliza nie zrozumiała znaczenia mojej wypowiedzi, więc po prostu zapytała mnie, czy byłem tego pewny. Ma ona generalną zasadę, że gdy ktoś mówi „Tak”, to dobrze jest go zapytać czy na pewno. Eliza ma także wzorce, które są wywoływane, gdy ktoś powtarza się. Eliza tak naprawdę nie rozumie tego, co do niej piszesz (znaczenia tekstu), zamiast tego trzyma się reguł, które podpowiadają, co może być właściwą odpowiedzią. W żaden sposób nie jest w stanie stwierdzić, że dwukrotna odpowiedź „Tak” była dla mnie naprawdę ważna! To właściwie duża wskazówka, że Eliza nie jest tak naprawdę inteligentna i nie rozumie kontekstu rozmowy, a nawet tego, czy odpowiedź na jej pytanie jest lub nie jest sensowna.

Teraz przeprowadź kolejną konwersację z Elizą. Jest wiele innych przykładów podobnych do konwersacji powyżej, pokazujących, że Eliza mówi bez sensu. Ile możesz znaleźć takich przykładów? Sprawdź, jak Eliza odpowiada, gdy używasz takich strategii rozmowy:

Spróbuj być „papugą”, która tylko powtarza wszystko, co powiedziała Eliza.

Co się dzieje, gdy nie dajesz sensownych odpowiedzi na jej pytania?

Jeśli mówisz te same rzeczy, które powiedziałeś wcześniej, czy Eliza zawsze reaguje w ten sam sposób?

Co się stanie, gdy zaczniesz mówić o rzeczach, które nie pojawiłyby się raczej na sesji terapeutycznej -- będziesz starał się rozmawiać z Elizą na ogólne tematy (pamiętaj, że Eliza operuje w specjalistycznej dziedzinie, to znaczy ona zakłada, że jest terapeutką)?

Jak już wspomnieliśmy, Eliza jest czatbotem, który pracuje w specjalistycznej dziedzinie (próbuje być terapeutką). Stara się brzmieć inteligentnie poprzez zadawanie ogólnikowych pytań. Dzięki temu szybko zapewne odkryłeś, że Eliza nie jest w ogóle inteligentna i będzie powtarzała te same rzeczy w kółko.

Spróbuj przeprowadzić rozmowę z kolejnym czatbotem — Mitsuku. Pierwowzorem czabota Mitsuku była ALICE. Mitsuku zawiera całą bazę wiedzy AIML czatbota Alice (w angielskiej wersji przewodnika autorzy proponują rozmowę z Alice, lecz podany odnośnik jest nieaktualny [przyp. tłum.]).

Kliknij tutaj, aby porozmawiać z Mitsuku.

Czy Mitsuku brzmi bardziej inteligentnie od Elizy? Czy brzmi równie inteligentnie jak człowiek lub czy możesz sprawić, że będzie mówiła bezsensowne rzeczy? Spróbuj użyć tych samych wskazówek, których używałeś w przypadku Elizy i zobacz, czy działają one na Mitsuku (spójrz na listę punktów w podrozdziale poświęconym Elizie).

Mitsuku oraz Eliza używają reguł do budowania swoich wypowiedzi, jednakże Mitsuku ma ich więcej. Algorytm odpowiedzialny za wybranie tego co powiedzieć, jest w tym przypadku bardziej wyrafinowany. Jeśli chcesz się dowiedzieć, jak skonsturowana jest Mitsuku, po prostu ją zapytaj, a ona da ci odpowiedź!

Poniżej zamieszczamy możliwe reguły stosowane przez Mitsuku:

Jeśli jest wspomniany „ulubiony kolor”, powiedz „niebieski”

Jeśli wspomniany jest członek rodziny (np. „mama”, „tata” lub „brat”), powiedz coś związanego z rodziną.

Aby użyć reguł, czatbot analizuje twoje ostatnie zdanie (i możliwe, że również wcześniejsze zdania) poprzez dopasowanie zdania do wzorców, które ma zapisane. Jeśli zdanie pasuje do wzorca w regułach, wtedy dana reguła jest „aktywowana”. Reguła określa odpowiedź. Czasami jest ona po prostu szablonem zdania i czatbot analizuje tekst, który wpisałeś i wybiera słowa, które mogą być wpisane w szablon. To dlatego czasami odpowiedzi są konstruowane w ten sposób, że używane są części tekstu wpisanego przez człowieka..

Jakość tych reguł determinuje to, jak inteligentnie czatbot będzie brzmiał.

Mitsuku jest bez wątpienia bardziej inteligentna od Elizy, jednak nadal ma ograniczenia. Czasami sama się do nich przyznaje!!

Człowiek: Co wydarzy się w roku 2000?

Mitsuku: Nie mogę przewidzieć przyszłości.

Człowiek: To jest przeszłość.

Mitsuku: Tak, to jest coś z przeszłości.

Człowiek: Więc dlaczego powiedziałaś, że nie możesz przewidzieć przyszłości?

Mitsuku: To była wstępnie zaprogramowana odpowiedź, całkowicie zdeterminowana przez twoje stwierdzenie.

Człowiek w tej rozmowie musiał być trochę złośliwy, oszukując ją i mówiąc „co wydarzy się”. Jej zasady nie przewidują, że człowiek może ją w taki sposób traktować.

W poprzednich podrozdziałach widzieliśmy przykłady dwóch czatbotów, które mają reguły pomagające konstruować wypowiedzi. Jeden z nich działa w specjalistycznej dziedzinie, symulując terapeutę i nie jest w stanie prowadzić bardzo ogólnej konwersacji. Drugi jest w stanie prowadzić bardziej ogólną rozmowę. Obydwa czatboty mają swoje reguły, które zostały wbudowane w nie przez ich twórców. Te zasady mogą się zmienić tylko wtedy, gdy ich twórca o tym zdecyduje i zaktualizuje oprogramowanie czatbota.

Istnieją innego rodzaju czatboty, które są w stanie uczyć się zasad od ludzi w czasie konwersacji. Poprzez analizowanie tego, co pisze człowiek, czatbot próbuje nauczyć się, jak powinien odpowiadać w różnych sytuacjach. Założeniem jest, że jeśli odpowiada w sposób podobny do człowieka, wtedy może będzie brzmiał jak człowiek. Celem większości tych czatbotów jest prowadzenie ogólnej konwersacji, tzn. nie są one ograniczone do jednej dziedziny, tak jak terapeutka Eliza.

Twórcy uczących się czatbotów przyjęli zasadę, że gdy próbujesz symulować ludzką inteligencję, wtedy prawdopodobnie uczenie się od ludzi jest drogą do celu.

Ostrzeżenie. Interakcja z czarbotami, które się uczą ▼ Poniższe ćwiczenie wymaga interakcji z jednym z czatbotów, które się uczą. Ponieważ czatbot uczy się od ludzi, z dość dużym prawdopodobieństwem nauczył się mówić rzeczy, które dla ciebie mogą być bardzo obraźliwe. Mimo, że staraliśmy się wybrać czatboty, które nie wypowiadają się obraźliwie, nie możemy zagwarantować, że nie usłyszysz czegoś niepożądanego; zachowaj zatem dystans do tego, co się wydarzy. Możesz także pominąć to ćwiczenie i nadal zrozumieć główne założenia tego rozdziału. Ponieważ Eliza i Mitsuku nie uczą się od ludzi, nigdy nie powiedzą obraźliwych rzeczy, dopóki ty nie zrobisz tego pierwszy! Przypominamy znowu, nie używaj w konwersacji z czatbotami twoich danych personalnych (takich jak imię i nazwisko, data urodzenia, adres i żadnej innej informacji, której nie chciałbyś nikomu udostępnić). Gdy potrzeba, zmyślaj. Bardzo prawdopodobne, że czatbot, który uczy się od ludzi, przekaże, to co powiedziałeś, innym ludziom, żeby brzmieć inteligentnie w stosunku do nich. Te ostrzeżenia będą bardziej sensowne, wtedy gdy nauczysz się, jak działają czatboty.

Przykładem czatbota, który uczy się od ludzi jest Cleverbot.

Kliknij tutaj, aby porozmawiać z Cleverbotem (po angielsku).

W przeciwieństwie do Elizy i Mitsuku, których reguły były określone przez programistów, Cleverbot uczy się zasad, opierając się na tym, co powiedzą ludzie. Na przykład, gdy Cleverbot mówi „cześć” do człowieka, to śledzi wszystkie reakcje, takie jak „hej”, „hello!”, „siema”, „co tam?” (angielskie „hi”, „hello!”, „hey ya”, „sup!”). Zasada działa w ten sposób: gdy ktoś powie „cześć" do Cleverbota, to Cleverbot powie to, co na ogół ludzie mówili w odpowiedzi do Cleverbota na „cześć”. Z kolei gdy Cleberbot mówi coś w rodzaju „co tam?” lub „hello!”, to wtedy będzie przyglądał się temu, jak ludzie odpowiadają na to i w ten sposób uczy się właściwej odpowiedzi. To pozwala zbudować Celverbotowi coraz większą bazę danych odpowiedzi.

Fundamentem dla Cleverbota jest założenie, że ludzie są rzeczywiście inteligentni i będą uczyli go mówienia inteligentnych rzeczy. Jeśli na przykład człowiek powie Cleverbotowi coś jak „szkoła jest nudna” w odpowiedzi na „hej”, Cleverbot może nauczyć się, że gdy osoba powie „hej”, to właściwą odpowiedzią Clverbota jest „Szkoła jest nudna”!

Ciekawostka. Krótki film stworzony przez Cleverbota ▼ Obejrzyj krótki film „Do You Love Me" (około 3 min), którego scenariusz napisał Cleverbot wraz z Chrisem R. Wilsonem.

Istnieje wiele czatbotów, z którymi możesz rozmawiać. Możesz zajrzeć na listę w angielskiej Wikipedii lub wyszukać je w Internecie za pomocą wyszukiwarki. Każdy czatbot na liście ma swoją stronę na Wikipedii. Część z tych czatbotów będzie miała reguły zdefiniowane przez programistów, część będzie miała reguły, które powstały poprzez uczenie się od ludzi.

Jeśli masz urządzenie z systemem Apple iOS (np. iPhone), spójrz na czatbota Siri, który znajduje się w systemie pomocy urządzenia. Siri jest przykładem czatbota, którego zadaniem jest pomoc człowiekowi, w przeciwieństwie do większości czatbotów, których celem jest po prostu rozrywka internetowa. Siri ma również wbudowane rozpoznawanie głosu, dlatego możesz do niej mówić, a nie tylko pisać.

W podrozdziałach powyżej zaznajomiłeś się z niektórymi czatbotami i (mamy nadzieję!), wyciągnąłeś wniosek, że nie są one całkowicie przekonujące, udając człowieka (choć niektóre są lepsze od innych!). Ale może wkrótce pojawią się nowe czatboty, które nie będą miały tych ograniczeń. Czy powinniśmy uważać je za inteligentne? W jaki sposób moglibyśmy to stwierdzić? Czy istnieje formalny sposób, w jaki możemy ustalić, czy czatbot jest na poziomie ludzkiej inteligencji?

Bardzo znany informatyk, Alan Turing, odpowiedział na to pytanie w 1950 roku, zanim istniał pierwszy czatbot! Alan Turing miał niezwykłą wizję przyszłości i wiedział, że wymyślenie inteligentnych komputerów jest tylko kwestią czasu i że będziemy potrzebować metody sprawdzającej, czy udało nam się stworzyć naprawdę inteligentny komputer.

Zastanawiał się nad tym, jak można byłoby zdefiniować inteligencję (określenie inteligencji jest zaskakująco trudne!) i stwierdził, że jednym ze sposobów byłoby uznanie, że komputer jest inteligenty, jeśli potrafi konwersować z człowiekiem jak człowiek. Definicja ta nie obejmuje całej inteligencji, ponieważ uwzględnia jedynie to, co osoba lub komputer mówi i ignoruje inne elementy inteligencji, takie jak określenie najlepszego sposobu na przejście przez budynek (lub labirynt) lub zdecydowanie, jak działać w konkretnej sytuacji (na przykład na imprezie towarzyskiej, przy podejmowaniu decyzji o tym, jaką kolejną rzecz zrobić w pracy lub co zrobić, gdy ktoś się zgubi). Jednakże komunikacja jest nadal bardzo istotnym elementem ludzkiej inteligencji.

Aby sprawdzić, czy program komputerowy może lub nie może komunikować się jak człowiek, Turing zaproponował test. Oprócz programu komputerowego, do przeprowadzenia testu wymagane są dwie osoby. Jedna z osób działa jako „przesłuchujący”, a druga jako „człowiek”, do porównania z programem komputerowym. Przesłuchującego umieszcza się w innym pomieszczeniu niż komputer i „człowiek”. Przesłuchujący rozmawia zarówno z człowiekiem, jak i z programem komputerowym, ale nie wie z kim rozmawia w danej chwili. Rozmowy przeprowadzane są na zasadzie podobnej do komunikatora tekstowego, dzięki czemu program komputerowy nie potrzebuje komunikować się głosowo. Podczas rozmów zarówno człowiek, jak i komputer próbują przekonać przesłuchującego, że są człowiekiem. Po zakończeniu rozmów przesłuchujący musi powiedzieć, który z rozmówców był komputerem, a który człowiekiem. Jeśli nie jest w stanie tego z dużą pewnością stwierdzić, oznacza to, że komputer przeszedł pomyślnie test.

Test zaproponowany przez Turinga stał się w końcu sławny i otrzymał nazwę „testu Turinga”. Jedną z motywacji do tworzenia czatbotów jest próba stworzenia takiego, który zda test Turinga. Niestety nie został jeszcze stworzony czatbot, który zdałby ów test, a kwestią otwartą w informatyce jest to, czy jest to w ogóle możliwe, podobnie jak inne pytania o sztuczną inteligencję, które napotkasz dalej w tym rozdziale.

Istnieją również inne formy testu Turinga. Gry akcji mają czasami postać sterowaną komputerowo, która walczy z twoją postacią, zamiast drugiej, kontrolowanej przez człowieka postaci. Odmianę testu Turinga można wykorzystać do określenia tego, czy komputerowo kontrolowany gracz wydaje się posiadać (lub nie) ludzką inteligencję, prosząc przesłuchującego, aby grał zarówno przeciwko postaci komputerowej, jak i ludzkiej, i aby sprawdzić, czy potrafi odróżnić je od siebie.

W rzeczywistości wiele aspektów ludzkiej inteligencji mogłoby zostać przetestowanych przed odmianę testu Turinga. Jeśli chciałbyś mieć komputerowego szachistę, który wyglądałby jak człowiek, a nie komputer (niektórzy ludzie woleliby grać przeciwko człowiekowi, a nie komputerowi), możesz również użyć do tego testu Turinga! Jakie inne możliwe testy Turinga możesz wymyślić?

Ciekawostka. Prawdziwy test Turinga ▼ Alan Turing zaczął od zaproponowania prostej gry towarzyskiej wymagającej trzech graczy, w której pierwszym graczem była kobieta, drugim graczem był mężczyzna, a trzecim graczem mógł być zarówno mężczyzna, jak i kobieta i przejmował on rolę „przesłuchującego”. Przesłuchujący znajdował się w innym pokoju niż pozostała dwójka graczy i mógł komunikować się z nimi tylko przekazując notatki (np. przez przekazywanie notatek pod drzwiami). Mężczyzna musiał spróbować przekonać przesłuchującego, że jest tak naprawdę kobietą, a kobieta — że jest kobietą. Na koniec przesłuchujący musiał powiedzieć, kto był mężczyzną, a kto kobietą i jeśli odgadł niepoprawnie, to mężczyzna „wygrywał”.

Czy sztuczna inteligencja jest inteligentna?

Rozmowa z dr. Tomaszem Xięskim z Zakładu Systemów Informatycznych na Wydziale Informatyki i Nauki o Materiałach UŚ

Idea stworzenia sztucznych istot – na wzór i podobieństwo człowieka – istnieje w ludzkiej kulturze od zarania dziejów. Motyw ten pojawiał się w mitologii greckiej (Galatea), w tradycji żydowskiej (Golem) czy w renesansie (projekt humanoidalnego robota wykonany przez Leonarda da Vinci, datowany na 1495 rok). Termin robot, którego autorem jest czeski pisarz Karel Čapek (1921), w znaczeniu mechanicznego urządzenia automatycznie wykonującego określone zadania sterowanego przez program lub przy pomocy technik sztucznej inteligencji pojawił się stosunkowo późno (przed II wojną światową). Termin robotyka wprowadził Isaac Asimov w 1938 roku. Rozwój przemysłu i techniki spowodował także rozwój wyobraźni pisarzy, którzy zaludnili swoje powieści z kręgu science fiction robotami/ androidami. Urządzenia, których zasada działania polega na wykorzystaniu sztucznej inteligencji, to dziś już nie fantastyka.

Dr Tomasz Xięski

Na początek spróbujmy wyjaśnić, co to jest sztuczna inteligencja (ang. artificial intelligence, AI)?

– Mnie najbardziej bliska jest definicja Edwarda Feigenbauma, amerykańskiego informatyka uważanego za ojca systemów ekspertowych, czyli wszelkiego rodzaju systemów, które opierają swoje działanie na wnioskowaniu, indukcji nowej wiedzy, systemach doradczych i wspomagania decyzji. Wniósł ogromny wkład w rozwój sztucznej inteligencji, którą definiował jako dziedzinę informatyki dotyczącą metod wnioskowania symbolicznego i reprezentacji wiedzy używanej w procesie takiego wnioskowania. Ta definicja bierze pod uwagę proces uczenia się i dostosowywania się do nowych warunków. Uwzględnia też sferę maszynową, czyli tę „sztuczność”. Może to więc być program komputerowy czy wyspecjalizowany system, który nas wspomaga. O sztucznej inteligencji mówi się też wtedy, kiedy maszyna robi coś potencjalnie lepiej lub szybciej od człowieka, np. oblicza, klasyfikuje czy kataloguje. Określenie sztuczna inteligencja jest dziś hasłem bardzo popularnym, nośnym, ale odnoszę wrażenie, że również często nadużywanym. Nierzadko słyszymy w reklamach czy programach telewizyjnych o inteligentnych pralkach, lodówkach, telewizorach czy smartfonach. Szczególnie marketingowcy lubią się nim posługiwać i określać dany produkt terminem smart lub intelligence, nawet jeśli w rzeczywistości taki nie jest. Ja jednak określam sztuczną inteligencję jako dziedzinę informatyki, która oczywiście wykorzystuje również inne nauki z pogranicza wielu różnych dziedzin: technik poznawczych, kognitywistyki, metod analizy językowej, psychologii.

Kiedy pojawił się termin sztuczna inteligencja i jak przedstawia się historia badań nad nią?

– Za ojca sztucznej inteligencji uważa się Marvina Minsky’ego, amerykańskiego naukowca zajmującego się głównie naukami kognitywnymi, współzałożyciela laboratorium AI w Massachusetts Institute of Technology (MIT) w Bostonie. Był jednym z pionierów robotów bazujących na sztucznej inteligencji, w 1951 roku zbudował pierwszą stochastyczną sieć neuronową (SNARC). Sam termin sztuczna inteligencja jest całkiem nowy. Wymyślił go John Mc- Carthy, amerykański informatyk, laureat Nagrody Turinga, i po raz pierwszy użył w 1956 roku podczas konferencji zorganizowanej przez Dartmouth College w New Hampshire. Pojęcie zdefiniowano jako „system, który świadomie postrzega otoczenie i reaguje na nie tak, aby zmaksymalizować swoje szanse powodzenia”. Pierwszym systemem tego typu był program ELIZA – czatbot testowany w MIT w 1966 roku. Jak wspomniałem wcześniej, pierwsze programy ekspertowe były systemami doradczymi, które wykorzystywano np. w medycynie. Programy tego typu polegały na tym, aby zastąpić eksperta, ale ostateczną decyzję podejmował człowiek.

W 1950 roku Alan Turing zaproponował użycie pewnego testu na inteligencję maszyn. Nazwano go później testem Turinga. Na czym on polega?

– Test Turinga dotyczy głównie jednego rodzaju maszyn – tzw. czatbotów. Czatbot to program komputerowy, którego zadaniem jest prowadzenie konwersacji przy użyciu języka naturalnego bądź interfejsu tekstowego i sprawianie wrażenia inteligentnego. O idealnym czatbocie możemy mówić, gdy sprawi, że rozmawiający z nim człowiek uwierzy, że prowadzi konwersację z żywym człowiekiem, a nie z programem. Test Turinga ma za zadanie m.in. udowodnić inteligentne zdolności maszyny dzięki skutecznemu udawaniu człowieka w rozmowie. Turing oczekiwał, że maszyny w przyszłości będą potrafiły przejść ten test. Naukowiec ocenił, że tak się stanie około 2000 roku. I rzeczywiście proste programy konwersacyjne, jak wspomniana ELIZA, były w stanie sprawić, że ludzie wierzyli, iż rozmawiają z żywym człowiekiem. Samo oszukanie kilku osób nie jest jednak tym samym, co przejście testu Turinga. Człowiek w zwykłej rozmowie nie ma podstaw do podejrzeń, że nie rozmawia z innym człowiekiem. W teście Turinga przesłuchujący stara się aktywnie określić naturę rozmówcy. Mimo pewnych doniesień o sukcesach poszczególnych programów tak naprawdę nie możemy jeszcze powiedzieć, że jakaś maszyna zdała ten test. Oczywiście pojawiają się różnego rodzaju czatboty, błędnie określane jako wirtualni asystenci, które wykorzystywane są w internecie lub na infoliniach jako doradcy, konsultanci lub przewodnicy po serwisach. Pionierem w tej dziedzinie jest z pewnością firma Google, która niedawno wyprodukowała Google Asystenta. To inteligentny asystent osobisty, który dostępny jest na urządzenia mobilne oraz inteligentne urządzenia domowe, tzw. smart home. Jego cechą charakterystyczną jest umiejętność prowadzenia dwustronnej konwersacji i rozumienia kontekstu, ale nie tylko. Potrafi odpowiadać na zadane pytania, wyszukuje informacje w internecie, kontroluje inne urządzenia – od telewizora po zmywarkę, robi zakupy, rezerwuje loty, hotele, rozpoznaje przedmioty za pomocą kamery, rozpoznaje tekst, zarządza kalendarzem użytkownika itd.

Stanisław Lem powiedział, że tak naprawdę nie możemy jeszcze mówić o istnieniu sztucznej inteligencji, i na dowód podał przykład: gdyby zechciał uderzyć swój komputer, to ten by się nie obronił, mimo iż liczy niewątpliwie szybciej i dokładniej od niego.

– Niemniej są już systemy, które potrafią uczyć się na podstawie doświadczenia, funkcji oceny na przykładach, możemy też mówić o programach, które zmieniają swój kod. Mimo wszystko zgodzę się ze zdaniem Lema, że nie ma jeszcze tak inteligentnej sztucznej inteligencji. Bo gdy myślimy o sztucznej inteligencji, jaką obdarzone są roboty z powieści science fiction, to pojawia się kwestia samoświadomości. Czy sztuczna inteligencja może osiągnąć taką samoświadomość, jaką ma człowiek? A jeśli tak – jakie to będzie miało implikacje? Gdyby kiedyś doszło do sytuacji, że sztuczna inteligencja zdołałaby osiągnąć taką samoświadomość, musielibyśmy wówczas zadać sobie pytanie, jaką rzeczywiście mamy nad nią kontrolę.

Stephen Hawking twierdził, że bardziej od kosmitów boi się sztucznej inteligencji, która pozbawiona kontroli może unicestwić gatunek ludzki. Czy rzeczywiście sztuczna inteligencja może w przyszłości zagrozić ludzkości?

– Myślę, że na razie możemy spać spokojnie. Takie obawy są raczej rodem z filmów typu Terminator. Do tej pory nie udało się stworzyć maszyny, która potrafiłaby symulować wszystkie procesy poznawcze, jakie zachodzą w ludzkim mózgu. Ludzki mózg jest wciąż najlepszą maszyną myślącą na świecie. Być może do czasu, ale obecnie jesteśmy na takim etapie, kiedy człowiek kontroluje maszyny wykorzystujące sztuczną inteligencję.

Isaac Asimov w swoich powieściach zmierzył się z problemem zasad moralnych, jakimi będą kierowały się urządzenia wyposażone w sztuczną inteligencję, i już w 1942 roku stworzył słynne trzy prawa robotyki, w których jasno określił, co robot może, a czego nie może zrobić. 43 lata później dodał tzw. prawo zerowe, które dawało robotowi możliwość zadecydowania o tym, co jest dobre dla ludzkości i kiedy dobro ludzkości stoi ponad dobrem człowieka jako jednostki. Czy kiedykolwiek będzie można nauczyć sztuczną inteligencję moralności i takich pojęć, jak dobro czy zło?

– To jest bardzo trudne zagadnienie. Musielibyśmy wpierw odpowiedzieć na pytanie, co rozumiemy przez moralność. Moralność, dobro, zło, dusza, samoświadomość – to wszystko pojęcia, które jak dotąd przypisujemy wyłącznie człowiekowi. Używamy ich, ale czy zastanawiamy się, co się pod nimi kryje? Kwestie decydowania za człowieka są już jednak rozważane, na przykład w przypadku samochodów autonomicznych. W sytuacjach wyjątkowych pojawia się problem, czy samochód ma uderzyć w inny samochód, czy wjechać na chodnik, na którym może potrącić inne osoby. Co jest lepsze: uśmiercić jednego człowieka czy grupę ludzi? Są to bardzo poważne dylematy moralne, z którymi trudno poradzić sobie ludziom, a co dopiero maszynom. Poza tym pojawiają się także kwestie odpowiedzialności za sytuacje, w których ktoś ucierpiał. Trzeba wyraźnie powiedzieć, że obecnie wszelkie systemy, które są wbudowane w samochody autonomiczne, nie są naprawdę systemami w pełni autonomicznymi. Zawsze to kierowca jest odpowiedzialny za obserwację drogi i to on ma ostateczną decyzję. Zresztą według przepisów kierowca w autonomicznym pojeździe powinien trzymać ręce na kierownicy, żeby w razie nagłej sytuacji mógł zareagować. Gdy doczekamy się zalegalizowanych typowo autonomicznych pojazdów, dojdzie jeszcze kolejna kwestia – czy te pojazdy są na pewno stuprocentowo bezpieczne. Skoro czerpią swoje aktualizacje z zewnątrz – za pośrednictwem internetu, to do takiego pojazdu, a dokładniej systemu komputerowego, potencjalnie można się włamać. Może się wówczas okazać, że ktoś przejmie kontrolę nad samochodem, a kierowca ją utraci, nie będzie mógł więc nim kierować i reagować.

Nasze obecne wyobrażenie sztucznej inteligencji jest chyba mocno zdeterminowane przez studia filmowe i literaturę z kręgu science fiction. Bo chyba sztuczna inteligencja to nie tylko androidy, które chcą przejąć władzę nad Ziemią?

– Oczywiście, że tak. Nasze dzisiejsze wyobrażenia są mocno ograniczone przez produkcje hollywoodzkie. To humanoidy, które są silniejsze i sprytniejsze od człowieka. Ale czy sztuczna inteligencja naprawdę nas zastąpi? Mam nadzieję, że nie. Budujemy sztuczną inteligencję, aby była dla nas pomocą. Koncepcje science fiction bazują raczej na naszych emocjach. Być może wskazują na jakiś potencjalny problem, ale generalnie mocno go przerysowują.

Komputer uczy się w sposób skomplikowany i stosunkowo długo, analizując wszystkie dostarczane mu dane. Ludzki mózg w sposób naturalny upraszcza dane i wybiera tylko informacje istotne dla procesu uczenia się.

– Przetwarzanie dużej liczby informacji zawsze było wyzwaniem i jest to coraz większy problem. Kiedyś symulacja gry w szachy była trudnym zadaniem ze względu na problemy obliczeniowe – komputery starszej generacji nie miały takiej mocy obliczeniowej, jak dzisiejsze komputery, żeby nawet znając wszystkie strategie, dojść do optymalnego rozwiązania. W związku z czym w szachach zastosowano inną koncepcję – pewnego rodzaju algorytmy heurystyczne, podejścia stochastyczne, przybliżone. Chodziło o to, aby wybrać strategię w miarę blisko wygranej, ale być może nie jest to ta najlepsza, czyli schemat, w którym na pewno wygramy. Duże prawdopodobieństwo da się wyliczyć znacznie szybciej. Wówczas angażowane są mniejsze zasoby. Inną kwestią jest uczenie się i adaptacja (jak u ludzi). Pojęcie inteligencji można przecież zdefiniować jako zdolność adaptacji do nowych warunków i nowych zadań. Innym problemem jest przechowywanie danych do obsługi sztucznej inteligencji, a są to naprawdę ogromne bazy. Oczywiście nie ma mowy o płytach CD, DVD, Blu-Ray, twardych dyskach czy kartach pamięci. Z jednej strony systemy potrzebują nośników o potężnej objętości, a z drugiej – trwałych. Najnowszym pomysłem na zachowywanie takich ogromnych danych jest zapis w DNA. To stosunkowo trwała i odporna struktura, ma zdolność regeneracji i replikacji, a co bardzo istotne – w zasadzie się nie starzeje. Ale najważniejsza jest gęstość zapisu – 215 petabajtów (1015 bajtów) danych w 1 gramie DNA! To fenomenalny wynik. Komputery wykorzystujące DNA to wcale nie science fiction, już powstają takie urządzenia, choć nie na masową skalę. Poza tym metoda zapisu i odczytu informacji z DNA jest bardzo droga, choć oczywiście wraz z rozwojem technologii ceny na pewno spadną. Myślę, że DNA może być przyszłością w przechowywaniu informacji.

W jakim kierunku zmierzają badania nad sztuczną inteligencją?

– Przede wszystkim będą iść w kierunku produkcji systemów do szeroko pojętej analizy dużych zbiorów danych, tzw. big data. To nie tylko duże, ale zmienne i różnorodne zbiory danych, których przetwarzanie i analiza są trudne, ale jednocześnie niezwykle wartościowe, ponieważ może to prowadzić do zdobycia nowej wiedzy. Oczywiście pojęcie duże zbiory jest względne. Generalnie oznacza zbiory, których nie da się przetwarzać przy użyciu powszechnie dostępnych metod. Mogą to być nawet petabajty danych. W dzisiejszych czasach ludzkość generuje ogromne ilości informacji: w internecie, ale także dane w postaci transakcji, informacji służących do profilowania klientów. Jeden obszar zainteresowania naukowców to wykorzystanie data miningu do dokonywania prognoz, np. danych giełdowych, danych sprzedaży, wszelkiego katalogowania i grupowania danych. Kolejny kierunek to systemy wspomagania decyzji, które odgrywają rolę doradczą w kwestiach biznesowych, medycznych, bankowych itp. Trzeci kierunek, który bym wyróżnił, jeśli chodzi o sztuczną inteligencję, to ulepszanie mechanizmów komunikacji z człowiekiem, a więc wszelkiego rodzaju interfejsy, nawet już niewerbalne, systemy sterowania wzorowane np. na Kinekcie, w którym się poruszamy, nasza sylwetka jest mapowana, to również rozpoznawanie twarzy, obiektów oraz analiza mowy. To dość istotne kierunki, które już są realizowane poprzez sztuczne sieci neuronowe czy modele Markowa. W tych działach sztuczna inteligencja dość prężnie się rozwija. Naukowcy, inżynierowie zaczęli ostatnio tworzyć także systemy neuromorficzne, czyli takie obwody scalone, które są wzorowane na tym, jak wyglądają fragmenty mózgu. Może jeszcze jest bardzo daleko do tego, aby te zaawansowane systemy odczuwały emocje, ale na pewno badania będą podążały w takim kierunku, aby maszyny nie tylko same uczyły się na podstawie swoich doświadczeń, ale również robiły to szybciej.

Bardzo dziękuję za rozmowę.

LEAVE A REPLY