Wszystkie najciekawsze rzeczy w jednym magazynie.

Rozwój sztucznej inteligencji postępuje niezwykle szybko. Najważniejsze nie jest jasne. Sztuczna inteligencja będzie świetlaną przyszłością nauki lub duży błąd w historii ludzkości?

1. Alan Turing jako pierwszy pomyślał o granicach inteligencji maszynowej. W 1950 roku opublikował książkę Czy maszyna myśli?, która stała się podstawą Testu Turinga.

2. Sztuczną inteligencję zdefiniował John McCarthy w 1956 roku.

3. W ZSRR rozwój związany ze sztuczną inteligencją rozpoczął się w latach 60. XX wieku.

4. Nie ma konkretnego kryterium, według którego można określić, czy maszyna jest inteligentna, czy nie.


5. Test Turinga zakłada, że ​​prawdziwa sztuczna inteligencja musi być w stanie prowadzić rozmowę z osobą tak, aby nie podejrzewała ona, że ​​rozmawia z nią maszyna.

6. Pisarze science fiction mają na ten temat własne zdanie. Wielu z nich wierzy, że sztuczna inteligencja staje się naprawdę inteligentna, gdy zyskuje zdolność odczuwania.

7. W filozofii sztucznej inteligencji istnieje hipoteza o silnej i słabej sztucznej inteligencji. Jej zwolennicy wierzą, że silny intelekt prędzej czy później zda sobie sprawę z siebie, choć wcale nie jest konieczne, aby jego myślenie było podobne do ludzkiego. Koncepcja słabej inteligencji zaprzecza takiej możliwości.


8. Sztuczna inteligencja, wł na tym etapie rozwoju, z powodzeniem stosowany w robotyce. Istnieje cała linia robotycznych zabawek, które wyglądają i zachowują się jak zwierzęta domowe.

9. Twórcy gier wideo wykorzystują sztuczną inteligencję do symulacji zachowań postaci niezależnych i zmiany środowiska gry.

10. Prace związane z AI prowadzone są w USA, Niemczech, Rosji, Japonii i wielu innych krajach rozwiniętych

11. W 1997 r. komputer AI Deep Blue pokonał mistrza świata w szachach Garry'ego Kasparowa. 8 lat wcześniej mistrz powiedział, że „jeśli zostanie stworzony komputer z oceną 2800, czyli równą mojej, sam uznam za swój obowiązek wyzwać go na pojedynek w celu ochrony rasy ludzkiej”.


12. W 2011 roku komputer IBM Watson wygrał grę „Jeopardy!”, wygrywając 1 milion dolarów. W momencie gry komputer miał 4 terabajty informacji referencyjnych, w tym pełny tekst Wikipedii.

13. W Rosji trwa rozwój sztucznej inteligencji „Mivar”, która do 2016 roku będzie w stanie prowadzić świadomy dialog z człowiekiem. Niestety tylko tekst – system nie posiada jeszcze funkcji rozpoznawania mowy.

14. Sztuczna inteligencja znajduje zastosowanie w wielu dziedzinach, m.in. w fizyce i medycynie.

15. Kwestia etyki stosowania AI była wielokrotnie poruszana wśród naukowców. Trzy prawa robotyki uznano za nieprzydatne dla rozwijającej się nauki ze względu na niejasne sformułowania.


16. Zbuntowana sztuczna inteligencja to najgorszy koszmar ludzkości. Książki i filmy, w tym seria filmów Terminator, poświęcone są następstwom i następstwom tej katastrofy.

17. Dalajlama XIV nie wyklucza możliwości istnienia świadomości komputerowej. Sugeruje to, że w pełni uformowana sztuczna inteligencja może mieć duszę.

18. Większość obecnie popularnych systemów AI mówi kobiecym głosem. Należą do nich Google Now, Siri i Cortana.

19. Sztuczna inteligencja rozwija się dynamicznie. Jeśli w 2013 roku średnia sztuczna inteligencja była na poziomie 4-letniego dziecka, to rok później jednemu z komputerów udało się rozwiązać jedno z matematycznych problemów Erdősa. Naukowcy przewidują, że do 2020 roku przeciętna sztuczna inteligencja będzie bliska inteligencji osoby dorosłej.


20. Stephen Hawking, Steve Wozniak, Elon Musk i ponad 1000 innych naukowców podpisali 28 lipca 2015 r. list zakazujący wykorzystywania sztucznej inteligencji do celów wojskowych. Ich zdaniem w pełni autonomiczna broń nie zmniejszy liczby ofiar w wojnach, ale je zwiększy, podsycając nowe konflikty.

Sztuczna inteligencja ma swój początek w 1950 r., kiedy pionier komputerów Alan Turing wprowadził test Turinga w swoim artykule „Computing and Intelligence”. Test polega na tym, że jest on uczestnikiem – sędzią – który musi komunikować się z dwoma uczestnikami znajdującymi się w dwóch odizolowanych od siebie pokojach. W jednym pokoju stoi maszyna, a w drugim prawdziwy człowiek. Następnie sędzia musi zadać każdemu uczestnikowi pytania i dowiedzieć się, który z nich to samochód. Jeśli sędzia wybierze człowieka w mniej niż 50% przypadków, maszyna zostanie uznana za „inteligentną”. Począwszy od oryginalnej teorii Turinga, rozpoczął się ciągły marsz w kierunku tworzenia myślących maszyn. W ciągu ostatnich dziesięcioleci poczyniono w tej dziedzinie ogromny postęp, ale musimy zadać sobie pytanie: czy jest to konieczne dobra rzecz? Oto kilka zaskakujących faktów na temat sztucznej inteligencji, a niektóre z nich są nieco… niepokojące.

AI używa kobiecego głosu

Jedną z rzeczy, które mogłeś zauważyć w przypadku sztucznej inteligencji, z którą możesz już wchodzić w interakcję (np. Google Now, Siri lub Cortana), jest to, że domyślnym głosem jest głos żeński. Dlaczego damskie?

Projekt Cortany jest oszałamiający

Nie ma konkretnego powodu, ale wpływa na to kilka czynników. Na przykład badania wykazały, że mężczyźni i kobiety postrzegają dźwięki kobiecy głos trochę lepszy od męskiego. Innym powodem, zdaniem Carla Fredricka McDormana, eksperta ds. interakcji człowiek-komputer na Uniwersytecie Indiana-Purdue University w Indianapolis, jest to, że nad sztuczną inteligencją pracują głównie mężczyźni, dlatego uważają kobiety za bardziej atrakcyjne i chcą podążać za ich przykładem . Kathleen Richardson, antropolog społeczna, zasugerowała, że ​​kobieca sztuczna inteligencja wydawałaby się mniej groźna niż męska sztuczna inteligencja. Również w filmach najczęściej przedstawiany jest nam obraz maszyny niszczycielskiej w formie postać męska na przykład Terminator.

Zwierzęta ze sztuczną inteligencją

Zwierzęta dla wielu są niemal częścią rodziny, mają jednak wiele wad. Trzeba po nich sprzątać, potrafią być destrukcyjne, trzeba je karmić i oczywiście w końcu umierają. Zwierzęta kontrolowane przez sztuczną inteligencję uchronią Cię przed wszystkimi tymi wadami. Badacz dobrostanu zwierząt na Uniwersytecie w Melbourne, dr Jean-Loup Roth, twierdzi, że istnieje już kilka patentów na roboty-zwierzęta i mogą one być powszechnie dostępne do 2025 r.





Reul twierdzi, że w ciągu najbliższych 10–15 lat programiści będą pracować nad wieloma aspektami sztucznej inteligencji i robotyki, aby producenci mogli tworzyć boty, z którymi ludzie będą mogli nawiązać emocjonalną więź. Wraith wierzy, że roboty domowe staną się jedną z niewielu realnych opcji dla większości ludzi, gdy świat stanie się bardziej zaludniony. Zasugerował także, że do 2050 roku na hodowlę prawdziwych, żywych zwierząt będą mogli pozwolić sobie jedynie bardzo bogaci ludzie.

Sztuczna inteligencja będzie w stanie samoleczyć

W 2017 roku ukazał się artykuł o robocie, który potrafiłby sam się naprawić nawet po utracie dwóch z sześciu nóg. Robot nie wie, co jest zepsute, ale zauważa, że ​​jego wydajność spadła. Następnie, stosując algorytm prób i błędów, robot może dowiedzieć się, co jest nie tak i jak samodzielnie naprawić. Naukowcy, którzy opracowali robota, poinformowali, że gdy się poprawi, aktualizuje swoją bazę danych o wszystkie rzeczy, które nie będą działać w fazie zwanej „symulowanym dzieciństwem”.




Faza ta trwa kilka minut i w tym czasie robot przetwarza 13 000 możliwych ruchów. Ruchy te powodują 1047 różnych zachowań, co jest liczbą niezgłębioną. Dla porównania, tyle atomów składa się na Ziemię. Implikacje tego typu sztucznej inteligencji są w zasadzie nieograniczone. Do najbardziej ekscytujących perspektyw należą misje poszukiwawczo-ratownicze oraz eksploracja głębin morskich w kosmosie.

Sztuczna inteligencja potrafi pisać

Pierwszy artykuł dla dużej organizacji informacyjnej napisany przez sztuczną inteligencję pojawił się na stronie internetowej Los Angeles Times po artykule gazety:




„Według US Geological Survey w poniedziałek rano w odległości około 8 km od Westwood w Kalifornii zarejestrowano niewielkie trzęsienie ziemi o sile 4,7 w skali Richtera. Trzęsienie ziemi miało miejsce o godzinie 6:25 czasu pacyficznego na głębokości 8 km. Według USGS epicentrum znajdowało się sześć mil od Beverly Hills w Kalifornii, siedem mil od Universal City w Kalifornii, siedem mil od Santa Monica w Kalifornii i 548 mil od Sacramento w Kalifornii. W ciągu ostatnich 10 dni na tym obszarze nie było trzęsień ziemi o sile 3,0 lub większej. Informacje te pochodzą z usługi ostrzegania o trzęsieniach ziemi USGS, a ten post został wygenerowany przez algorytm napisany przez autora.


Komputer był w stanie napisać artykuł na podstawie danych uzyskanych z sejsmografów, który przekształcił je w liczby, a następnie powiązał te liczby z historią. Technologia została częściowo opracowana przez Larry'ego Birnbauma, profesora dziennikarstwa i dyrektora Laboratorium Inteligentnej Informacji na Northwestern University. Był jednym z twórców Quill, czyli aplikacji dla firm piszących krótkie artykuły informacyjne. Pobiera statystyki i wykresy i zestawia je w pisemne raporty. W sprawie twórcze pisanie, podobnie jak powieści i scenariusze, jest to kolejny krok dla sztucznej inteligencji, ale wyraźnie trudny.

Sztuczna inteligencja może być poważnym pokerzystą

Wielkim krokiem w ewolucji sztucznej inteligencji było to, że Deep Blue z IBM pokonał mistrza świata Garry'ego Kasparowa w meczu szachowym w 1997 roku. Kolejnym kamieniem milowym był rok 2011, kiedy IBM Watson pojawił się w Jeopardy i całkowicie zniszczył niektórych czołowych uczestników Jeopardy. Kolejny ważny krok miał miejsce w maju 2015 r., kiedy superkomputer o nazwie Claudico z Carnegie Mellon University wziął udział w grze pokerowej no-limit Texas Holdem w Rivers Casino w Pittsburghu. Turniej trwał dwa tygodnie i rozegrano 80 000 rozdań. Ostatecznie Claudico zajął czwarte miejsce. Choć nie jest to zwycięstwo, to niewątpliwie duży krok w sztuce komputerowej. Duża różnica między grą taką jak poker a grą w szachy lub Jeopardy polega na tym, że w pokerze brakuje wielu informacji, a blef jest ważną strategią, a nie logicznym sposobem myślenia.




Naukowcy stwierdzili, że turniej był świetnym początkiem i wierzą, że do 2020 roku sztuczna inteligencja będzie w stanie pokonać najlepszych pokerzystów z całego świata. Algorytmy stosowane w Claudico znajdą zastosowanie wszędzie tam, gdzie będzie niekompletna informacja, m.in. w cyberbezpieczeństwie, medycynie czy negocjacjach.

Romantyczne relacje ze sztuczną inteligencją

Pytanie, które powinno się pojawić, brzmi: jeśli sztuczna inteligencja jest prawie lub całkowicie nie do odróżnienia od ludzi, czy ludzie będą w stanie nawiązywać fizyczne i emocjonalne relacje z obiektami AI? David Levy z Uniwersytetu w Maastricht w Holandii przedstawił interesujący, ale prawdopodobny scenariusz, w którym seks z robotem może stać się bardzo popularny. Powiedział, że początkowo spotkałoby się to z oburzeniem opinii publicznej, ale gdy stanie się zjawiskiem masowym, takim jak Cosmo, niektórzy będą chcieli to zrobić stosunki seksualne z robotem, a to zmieni panujące stosunki seksualne.




Ale jak blisko jesteśmy czegoś takiego? Levy i Henrik Christensen, założyciele Europejskiej Sieci Badań nad Robotyką, sądzili, że do 2012 roku ludzie będą uprawiać seks z robotami. Jesteśmy bliżej niż myślisz, ponieważ obecnie jest mnóstwo zabawek erotycznych wykorzystujących robotykę i zapewniających przyjemność, jakiej nigdy wcześniej nie doświadczyłeś. Jeśli chodzi o poważne związki, takie jak małżeństwo, jest to jeszcze odległa przyszłość. Jednocześnie Levy wierzy, że do 2050 r. małżeństwa ludzi i robotów staną się legalne. Oczywiście może to wynikać z faktu, że Levy jest zagorzałym fanem filmu „Ona”.

Sztuczna inteligencja potrafi się uczyć

Mówią, że komputer jest tak mądry, jak osoba, która go używa. Jednak wraz z postępem sztucznej inteligencji komputery zaczynają się uczyć. Na przykład Google opracował system sztucznej inteligencji, który nauczył się grać w gry na starym Atari 2600. Następnie sztuczna inteligencja pokonała najlepszych graczy na świecie.




Inny system szkoleniowy sztucznej inteligencji, android opracowany przez armię amerykańską, nauczył się gotować po obejrzeniu filmu na YouTube. Robot był w stanie opanować umiejętności rozpoznawania wizualnego metodą prób i błędów. Chociaż jest mało prawdopodobne, aby wojsko korzystało z robotów-kucharzy, ponieważ gotowanie wymaga tak szerokiego zakresu umiejętności, jest to po prostu świetna demonstracja tego, co potrafi robot.

Sztuczna inteligencja stanie się mądrzejsza od ludzi

Ponieważ sztuczna inteligencja potrafi się uczyć, komputery staną się bardzo inteligentne. Na przykład w 2014 roku superkomputer rozwiązał trudne zadanie problem matematyczny, zwany problemem niespójności Erdosa, opublikowany w 1930 roku. Zadziwiające jest to, że ludzie nie mogą nawet dwukrotnie sprawdzić rozwiązania, ponieważ równanie jest za długie. Rozmiar pliku wynosi 13 gigabajtów; dla porównania cała rosyjskojęzyczna Wikipedia ma około 20 gigabajtów.

Według słynnego futurysty Raya Kurzweila do 2029 roku sztuczna inteligencja będzie na poziomie rozwiniętej intelektualnie osoby dorosłej. Po tym komputer stanie się wykładniczo mądrzejszy. Na przykład Kurzweil uważa, że ​​może to prowadzić do osobliwości, w której ludzie i maszyny łączą się w jedną całość.

Sztuczna inteligencja przewiduje przyszłość

Ciekawym osiągnięciem w dziedzinie sztucznej inteligencji jest superkomputer SGI Altix o nazwie Nautilus. Wydaje się, że w pewnym stopniu potrafi przewidzieć przyszłość. Na przykład był w stanie przewidzieć, gdzie w promieniu 200 km ukrywa się Osama bin Laden, a także był w stanie przewidzieć arabską wiosnę, która rozpoczęła się w grudniu 2010 roku.

Nautilus zebrał te informacje na podstawie ponad 100 milionów artykułów prasowych z całego świata od 1945 roku. Artykuły będą analizowane w oparciu o dwa różne kryteria: nastrój artykułu i umiejscowienie historii. Informacje te doprowadziły do ​​​​sieci 100 bilionów relacji, a dane zostały załadowane do Nautilusa. Na podstawie tych informacji komputer był w stanie połączyć je i stworzyć wykresy przedstawiające trendy rozwojowe.

Autor ustaleń, Kalev Leetaru z Instytutu Informatyki w Sztuki, Nauk Humanistycznych i Społecznych Uniwersytetu Illinois, bada możliwość pracy z informacjami w czasie rzeczywistym. Chociaż Nautilus nie przewiduje dokładnie przyszłości, może sporządzać prognozy podobne do prognoz ekonomicznych lub prognoz pogody.

Groźba końca świata

Nie ma wątpliwości, że sztuczna inteligencja ma potencjał, aby znacząco poprawić jakość naszego życia. Sztuczna inteligencja sprawi, że drogi będą bezpieczniejsze, zapewni pomoc medyczną, pomoże osobom niepełnosprawnym i starszym, zapewni obsługę klienta i niezliczoną ilość innych miejsc pracy. Jednak sztuczna inteligencja stwarza również niesamowite zagrożenie i nie jest to też science fiction. Czołowi naukowcy i technolodzy, tacy jak Stephen Hawking, Bill Gates i Elon Musk, uważają, że sztuczna inteligencja jest bardzo realnym i niebezpiecznym zagrożeniem dla ludzkości.




Tak niebezpieczne, że Max Tegmark, fizyk z Massachusetts Institute of Technology, porównał to do opracowania broni nuklearnej i twierdzi, że uda nam się to tylko za pierwszym razem. Tak naprawdę konieczne jest tworzenie ograniczeń, które spowalniają postęp w rozwoju AI i skupiają się bardziej na jej powstrzymywaniu. Powstrzymywanie jest ważne, ponieważ jeśli kiedykolwiek stracimy kontrolę nad sztuczną inteligencją, możemy jej nigdy nie odzyskać. Zatem jest tylko kwestią czasu, zanim sztuczna inteligencja będzie w stanie zniszczyć ludzkość, ponieważ może obliczyć, że ludzie są stworzeniami wirusopodobnymi lub mogą zabijać ludzi w ramach samozachowawstwa. Zasadniczo sztuczna inteligencja albo rozwiąże wszystkie nasze problemy, albo nas wszystkich zniszczy. Innymi słowy, Terminator i Matrix nie są tak naciągane, jak wcześniej sądziliśmy.

  • Programowanie,
  • Rozwój Internetu Rzeczy,
  • Rozwój dla e-commerce,
  • Rozwój robotyki
  • Dziś o sztucznej inteligencji nie piszą tylko leniwi. Autodesk uważa na przykład, że sztuczna inteligencja może uwzględnić o wiele więcej czynników niż człowiek i dzięki temu zapewnić dokładniejsze, logiczne i jeszcze bardziej kreatywne rozwiązania złożonych problemów. Na Uniwersytecie Oksfordzkim generalnie sugeruje się, że sztuczna inteligencja mogłaby w niedalekiej przyszłości zastąpić etatowych dziennikarzy i pisać dla nich recenzje i artykuły (i na wszelki wypadek zdobyć nagrodę Pulitzera).

    Ogólna fascynacja tematem sztucznej inteligencji już dawno wykroczyła poza ramy konferencji naukowych i ekscytuje pisarzy, filmowców i ogół społeczeństwa. Wydaje się, że to przyszłość, w której roboty (lub Skynet) rządzą światem, a przynajmniej decydują większość codzienne zadania są tuż za rogiem. Ale co o tym myślą sami naukowcy?

    Na początek warto zrozumieć pojęcie „sztuczna inteligencja” – za dużo jest w tym temacie spekulacji i artystycznej przesady. W tej sprawie najlepiej skontaktować się z autorem tego terminu (a zarazem twórcą języka Lisp i zdobywcą wielu nagród) – Johnem McCarthym. W artykule o tym samym tytule („Co to jest sztuczna inteligencja?”) McCarthy podał następującą definicję:

    Jest to nauka i technologia tworzenia inteligentnych maszyn, zwłaszcza inteligentnych programów komputerowych. Sztuczna inteligencja zajmuje się zadaniem wykorzystania komputerów do zrozumienia działania ludzkiej inteligencji, ale nie ogranicza się do stosowania technik spotykanych w biologii.

    Okazuje się, że sztuczna inteligencja i inteligencja „ludzka” są ze sobą ściśle powiązane? Nie do końca tak – podkreślał sam McCarthy: jeśli inteligencja „w ogóle” jest „obliczeniowym” składnikiem tego, co pomaga podmiotowi osiągnąć założone cele, to inteligencja ludzi, zwierząt i maszyn będzie działać inaczej.

    Okazuje się, że sztuczna inteligencja nie przypomina ludzkiej inteligencji, chociaż wielu futurystów, pisarzy, a nawet naukowców chce wierzyć, że tak nie jest. Często powtarza to Michael Jordan, emerytowany profesor Uniwersytetu Kalifornijskiego w Berkeley. Uważa, że ​​brak zrozumienia czym jest sztuczna inteligencja prowadzi do czegoś więcej niż tylko stworzenia „ piękne obrazy”, nie związane z prawdziwą nauką, ale z prawdziwą dezinformacją i różne rodzaje mity krążące w tej dziedzinie.

    Mit pierwszy: aby stworzyć lub ulepszyć sztuczną inteligencję, trzeba zrozumieć, jak działa ludzki mózg

    Jordan twierdzi, że wcale tak nie jest. Praca sztucznej inteligencji z reguły nie ma nic wspólnego z tym, jak działa ludzka inteligencja. Ten „mit” jest głęboko zakorzeniony w upodobaniu społeczeństwa do „ piękne pomysły„: autorom artykułów popularnonaukowych na temat sztucznej inteligencji bardzo spodobały się metafory zaczerpnięte z neurobiologii.

    W rzeczywistości neuronauka ma bardzo niewiele (lub nie ma nic wspólnego) z pracą sztucznej inteligencji. Michaelowi Jordanowi pogląd, że „głębokie uczenie się wymaga zrozumienia, w jaki sposób ludzki mózg przetwarza informacje i uczy się”, brzmi jak zwykłe kłamstwo.

    „Neurony” zaangażowane w głębokie uczenie się to metafora (lub, w żargonie Jordana, ogólna „karykatura” działania mózgu), używana jedynie dla zwięzłości i wygody. W rzeczywistości praca mechanizmów tego samego głębokiego uczenia się jest znacznie bliższa procedurze konstruowania statystycznego modelu regresji logistycznej niż pracy rzeczywistych neuronów. Jednocześnie nikomu nie przychodzi do głowy używanie metafory „neuronu” w statystyce i ekonometrii dla „zwięzłości i wygody”.

    Mit drugi: sztuczna inteligencja i głębokie uczenie się to najnowsze osiągnięcia współczesna nauka

    Idea, że ​​w najbliższej przyszłości będą nam towarzyszyć „myślące po ludzku” komputery, wiąże się bezpośrednio z przekonaniem, że sztuczna inteligencja, sieci neuronowe i głębokie uczenie się są własnością wyłącznie współczesnej nauki. W końcu, jeśli założymy, że wszystko to zostało wynalezione kilkadziesiąt lat temu (a robots Dzisiaj nigdy nie zawładnęły światem), „próg oczekiwań” wobec osiągnięć nauki w ogóle, a tempo ich rozwoju w szczególności będzie musiał zostać poważnie obniżony.

    Niestety media robią wszystko, co w ich mocy, aby wzbudzić zainteresowanie ich materiałami i bardzo wybiórczo dobierają tematy, które w opinii redakcji wzbudzą zainteresowanie czytelników. W rezultacie opisywane przez nich osiągnięcia i ich perspektywy okazują się znacznie bardziej imponujące niż prawdziwe odkrycia, a część informacji jest po prostu „starannie pomijana”, aby nie umniejszać intensywności namiętności.

    Wiele z tego, co obecnie nazywa się sztuczną inteligencją, to po prostu przetworzone informacje o sieciach neuronowych, które są znane ludzkości od lat 80.

    A w latach osiemdziesiątych wszyscy powtarzali to, co było znane w latach sześćdziesiątych. Mam wrażenie, że co 20 lat następuje fala zainteresowania tymi samymi tematami. W obecnej fali główną ideą jest splotowa sieć neuronowa, o której mówiono już dwadzieścia lat temu
    – Michaela Jordana

    Mit trzeci: sztuczna sieć neuronowa składa się z tych samych elementów, co „prawdziwa”.

    Tak naprawdę specjaliści zajmujący się rozwojem systemów komputerowych operują terminami i sformułowaniami neurobiologicznymi znacznie odważniej niż wielu neuronaukowców. Zainteresowanie funkcjonowaniem mózgu i strukturą ludzkiej inteligencji stało się wylęgarnią dla rozwoju takiej teorii, jak „realizm neuronowy”.

    Systemy sztucznej inteligencji nie mają kolców ani dendrytów; ponadto zasady ich działania dalekie są nie tylko od pracy mózgu, ale także od osławionego „realizmu neuronowego”. Tak naprawdę nie ma nic „neuronowego” w sieciach neuronowych.

    Co więcej, idea „realizmu neuronowego”, polegającego na porównywaniu pracy systemów sztucznej inteligencji do pracy mózgu, zdaniem Jordana, nie wytrzymuje krytyki. Według niego to nie „realizm neuronowy” doprowadził do postępu w dziedzinie sztucznej inteligencji, ale stosowanie zasad całkowicie niezgodnych z działaniem ludzkiego mózgu.

    Jako przykład Jordan przytacza popularny algorytm głębokiego uczenia się oparty na „wstecznym przenoszeniu błędów uczenia się”. Zasada jego działania (czyli przekazywanie sygnału w przeciwnym kierunku) wyraźnie zaprzecza działaniu ludzkiego mózgu.

    Mit czwarty: Naukowcy dobrze rozumieją, jak działa „ludzka” inteligencja

    I to znowu jest dalekie od prawdy. Jak twierdzi ten sam Michael Jordan, głębokie zasady działania mózgu nie tylko pozostają nierozwiązanym problemem w neurobiologii – w tej dziedzinie naukowcom dzielą dziesięciolecia od rozwiązania problemu. Próby stworzenia działającej symulacji mózgu również nie przybliżają badaczy do zrozumienia, jak działa ludzka inteligencja.

    To po prostu architektura stworzona w nadziei, że pewnego dnia ludzie stworzą pasujące do niej algorytmy. Ale nic nie wspiera tej nadziei. Myślę, że nadzieja opiera się na wierze, że jeśli zbudujesz coś na kształt mózgu, od razu stanie się jasne, co potrafi
    – Michaela Jordana

    John McCarthy z kolei podkreślał: problem polega nie tylko na stworzeniu systemu na obraz i podobieństwo ludzkiej inteligencji, ale na tym, że sami naukowcy nie trzymają się zgoda czym ona (inteligencja) jest i za jakie konkretne procesy odpowiada.

    Naukowcy próbują odpowiedzieć na to pytanie na różne sposoby. W swojej książce Sieci neuronowe i głębokie uczenie się Michael Nielsen przedstawia kilka punktów widzenia. Na przykład z perspektywy konektomiki naszą inteligencję i jej funkcjonowanie tłumaczy się liczbą neuronów i komórek glejowych, które zawiera nasz mózg oraz ilością połączeń zaobserwowanych między nimi.

    Biorąc pod uwagę, że nasze mózgi zawierają około 100 miliardów neuronów, 100 miliardów komórek glejowych i 100 bilionów połączeń między neuronami, jest bardzo mało prawdopodobne, abyśmy mogli „dokładnie odtworzyć” tę architekturę i sprawić, by działała w najbliższej przyszłości.

    Jednak biolodzy molekularni badający ludzki genom i jego różnice w stosunku do bliskich krewnych człowieka w łańcuchu ewolucyjnym przedstawiają bardziej zachęcające przewidywania: okazuje się, że ludzki genom różni się od genomu szympansa o 125 milionów par zasad. Liczba ta jest duża, ale nie nieskończenie ogromna, co daje Nielsenowi podstawy do nadziei, że na podstawie tych danych grupa naukowców będzie w stanie stworzyć jeśli nie „działający prototyp”, to przynajmniej w miarę adekwatny „opis genetyczny” ” ludzkiego mózgu, a raczej podstawowe zasady, które stanowią podstawę jego twórczości.

    Warto dodać, że Nielsen wyznaje „ogólnie przyjęty ludzki szowinizm” i uważa, że ​​istotne zasady determinujące pracę ludzkiej inteligencji leżą właśnie w tych 125 milionach par zasad, a nie w pozostałych 96% genomu, czyli tyle samo u ludzi i szympansów.

    Czy zatem możemy stworzyć sztuczną inteligencję dorównującą możliwościom człowiekowi? Czy w dającej się przewidzieć przyszłości będziemy w stanie dokładnie zrozumieć, jak działa nasz mózg? Michael Nielsen uważa, że ​​jest to całkiem możliwe – jeśli uzbroimy się w wiarę w świetlaną przyszłość i w to, że wiele rzeczy w przyrodzie działa według prostszych praw, niż się wydaje na pierwszy rzut oka.

    Ale Michael Jordan daje coś bliższego praca praktyczna Rada badaczy: nie ulegajcie prowokacjom dziennikarzy i nie szukajcie „rewolucyjnych” rozwiązań. Jego zdaniem, przywiązując się do ludzkiej inteligencji jako punktu wyjścia i ostatecznego celu swoich badań, naukowcy pracujący nad problemem sztucznej inteligencji niepotrzebnie się ograniczają: ciekawe rozwiązania w tym obszarze mogą podążać w kierunkach niemających nic wspólnego z tym, jak działa nasz mózg (i jak nam się wydaje jego struktura).

    Bieżąca strona: 7 (książka ma łącznie 39 stron) [dostępny fragment do czytania: 10 stron]

    Żadna maszyna nie myśli o odwiecznych pytaniach

    Leon Chalupa

    Neurobiolog; Wiceprezes ds. badań, Uniwersytet George'a Washingtona

    Ostatnie przykłady niezwykłych możliwości komputerów o wysokiej wydajności są niezwykłe, ale nie zaskakują. Odpowiednio zaprogramowane maszyny znacznie przewyższają ludzi w przechowywaniu i ocenie dużych ilości danych oraz podejmowaniu niemal natychmiastowych decyzji. Są to myślące maszyny, gdyż procesy w nich zachodzące są podobne do wielu aspektów ludzkiego myślenia.

    Jednak w szerszym znaczeniu termin „myśląca maszyna” jest mylący. Żadna maszyna nie zadaje odwiecznych pytań: „Skąd przyszedłem? Dlaczego tu jestem? Gdzie idę? Maszyny nie myślą o swojej przyszłości, nieuniknionym końcu ani dziedzictwie. Rozważanie takich pytań wymaga świadomości i samoświadomości. Myślące maszyny ich nie mają i biorąc pod uwagę nasz obecny stan wiedzy, jest mało prawdopodobne, że będą je mieć w dającej się przewidzieć przyszłości.

    Jedynym realistycznym podejściem do stworzenia maszyny podobnej do ludzkiego mózgu byłoby skopiowanie obwodów neuronowych leżących u podstaw myślenia. Co więcej, programy badawcze prowadzone obecnie na Uniwersytecie Kalifornijskim w Berkeley, Massachusetts Institute of Technology i kilku innych uniwersytetach skupiają się na osiągnięciu tego celu, jakim jest zbudowanie komputerów działających jak kora mózgowa. Niedawne postępy w badaniach nad mikrostrukturą kory mózgowej dostarczyły głównego bodźca i prawdopodobnie BRAIN 27
    BRAIN, The Brain Research Through Advancing Innovative Neurotechnologies - badania mózgu z wykorzystaniem zaawansowanych innowacyjnych neurotechnologii (j. angielski). – Notatka uliczka

    nowy projekt Biały Dom – dostarczy wielu cennych informacji. W nadchodzących dziesięcioleciach dowiemy się, w jaki sposób miliardy neuronów w każdej z sześciu warstw kory mózgowej są ze sobą powiązane, a także jakie są rodzaje obwodów funkcjonalnych tworzonych przez takie połączenia.

    Jest to niezbędny pierwszy krok w rozwoju maszyn zdolnych myśleć w taki sam sposób, jak ludzki mózg. Jednak zrozumienie mikrostruktury kory nie wystarczy, aby zbudować inteligentną maszynę. Potrzebne jest zrozumienie aktywności neuronalnej leżącej u podstaw procesu myślowego. Badania obrazowe ujawniły wiele nowych informacji na temat obszarów mózgu zaangażowanych w takie funkcje, jak wzrok, słuch, dotyk, strach, przyjemność itp.

    Ale nie mamy jeszcze nawet przybliżonego zrozumienia tego, co dzieje się, gdy myślimy. Jest tego wiele przyczyn, a jedną z nich jest niemożność odizolowania procesu myślowego od innych. warunki fizyczne. Co więcej, różne obwody mózgowe mogą być powiązane z różnymi sposobami myślenia. Kiedy myślimy o zbliżającym się wykładzie, nasz mózg pracuje inaczej niż wtedy, gdy myślimy o niezapłaconych rachunkach.

    W najbliższej przyszłości możemy spodziewać się, że komputery będą w coraz większej liczbie czynności przewyższać ludzi. Aby stworzyć maszynę myślącą po ludzku, potrzebujemy jednak znacznie lepszego zrozumienia ludzkiego mózgu. NA w tej chwili nie musimy się martwić o prawa obywatelskie robotów ani o żadne inne prawa, ani nie musimy się martwić, że przejmą kontrolę. Jeśli nagle maszyna wymknie się spod kontroli, wystarczy wyciągnąć wtyczkę z gniazdka.

    Czy Osobliwość jest miejską legendą?

    Daniela Dennetta

    Filozof; Profesor filozofii i współdyrektor Centrum Badań Poznawczych na Uniwersytecie Tufts; autor książki „Pompy intuicji i inne narzędzia myślenia”

    Osobliwość – ten fatalny moment, w którym sztuczna inteligencja przewyższa inteligencją swoich twórców i przejmuje władzę nad światem – to mem, nad którym warto się zastanowić. Ma cechy miejskiej legendy: pewną naukową wiarygodność („No cóż, chyba jest to możliwe!”) i cudowną, wywołującą grymas puentę („Będą nami rządzić roboty!”). „Czy wiesz, że jeśli jednocześnie kichniesz, bekniesz i pierdniesz, umrzesz?” - „No dalej, naprawdę?” Po dziesięcioleciach szumu wokół sztucznej inteligencji można by pomyśleć, że ludzie uznają osobliwość za żart, ale jak się okazuje, zainteresowanie opinii publicznej tym pomysłem tylko rośnie. Dodaj kilku znaczących konwertytów – Elona Muska, Stephena Hawkinga i Davida Chalmersa – do listy innych wielkich nazwisk, a nie będziesz mógł powstrzymać się od potraktowania tego poważnie. Kiedy nastąpi to niezwykłe wydarzenie – za dziesięć, sto czy tysiąc lat? Może rozsądniej byłoby zacząć już teraz planować, budować barykady i zwiększać czujność, wypatrując zwiastunów katastrofy?

    Wręcz przeciwnie, myślę, że te sygnały ostrzegawcze odwracają naszą uwagę od bardziej palącego problemu - od grożącej nam katastrofy, która jest znacznie bliżej i która nie potrzebuje żadnego wsparcia ze strony prawa Moore'a ani przyszłych przełomów w nauce teoretycznej. Od kilku stuleci z wielkim trudem rozumiemy naturę, dziś zgromadzona wiedza pozwala nam po raz pierwszy w historii kontrolować wiele aspektów naszego losu - a teraz jesteśmy gotowi wyrzec się tej kontroli na rzecz bezmyślnych sztucznych agentów i przedwcześnie przestawił cywilizację na autopilota. Pokusa, aby to zrobić, jest podstępna, ponieważ każdy kolejny krok sam w sobie jest ofertą nie do odrzucenia. Dziś wyszedłbyś na kompletnego głupca, wykonując skomplikowane obliczenia arytmetyczne ołówkiem i papierem, podczas gdy kalkulator kieszonkowy jest znacznie szybszy i niemal w 100% niezawodny (nie zapomnij o błędzie zaokrągleń). Po co zapamiętywać rozkład jazdy pociągów, skoro w każdej chwili możesz sprawdzić go na swoim smartfonie? Zostaw odczyt mapy swojemu GPS; Tak, wcale nie jest bystry, ale radzi sobie z zadaniem znacznie lepiej od ciebie - nie pozwala ci zejść na manowce.

    Wspinając się po drabinie technologicznej, lekarze są w coraz większym stopniu uzależnieni od systemów diagnostycznych, które są obiektywnie bardziej niezawodne niż jakikolwiek specjalista-ludzki. Czy chcesz, aby Twój lekarz odrzucił raport przygotowany maszynowo? o czym mówimy o wyborze leczenia, które ma uratować życie? To może być najlepsze – obiektywnie najbardziej udane i bezpośrednio użyteczne – zastosowanie technologii zastosowanej w IBM Watson 28
    Superkomputer zdolny do rozumienia pytań w języku naturalnym angielski i przeszukaj bazę danych w poszukiwaniu odpowiedzi. – Notatka wyd.

    A pytanie, czy ten komputer można uznać za inteligentny (lub świadomy), jest nieistotne. Jeśli Watson okaże się lepszy od ludzkich ekspertów w stawianiu diagnoz na podstawie dostępnych danych, wówczas będziemy mieli moralny obowiązek czerpać korzyści z jego pracy. Prosi o to lekarz, który zdecyduje się zignorować zalecenia takiej maszyny proces sądowy o nadużyciu stanowiska oficjalnego. Moim zdaniem żadna dziedzina działalności człowieka nie jest wolna od stosowania takich optymalizatorów protetycznych, a gdziekolwiek się pojawią, zmuszeni jesteśmy dokonać wyboru na rzecz rzetelnych wyników, a nie relacje międzyludzkie, tak jak było wcześniej. Prawa stworzone przez człowieka, a nawet nauka stworzona przez człowieka mogą zająć miejsce obok rzemieślniczej ceramiki i ręcznie robionych swetrów.

    Już w początkach sztucznej inteligencji próbowano dokonać wyraźnego rozróżnienia między sztuczną inteligencją a modelowaniem poznawczym. Oczekiwano, że ta pierwsza stanie się gałęzią inżynierii i będzie pracować według własnego uznania, bez prób naśladowania ludzkich procesów myślowych, chyba że okaże się to skuteczne. Natomiast modelowanie poznawcze było przedłużeniem psychologii i neuronauki. Model modelowania poznawczego, który w przekonujący sposób wykazałby charakterystyczne ludzkie błędy lub trudności, byłby triumfem, a nie porażką. Takie różnice w aspiracjach nadal istnieją, ale zostały prawie wymazane ze świadomości publicznej. Dla amatorów sztuczna inteligencja jest rzeczą, która może przejść test Turinga. Niedawne postępy w sztucznej inteligencji były w dużej mierze wynikiem tego, że odeszliśmy od symulowania ludzkich procesów myślowych (co, jak sądziliśmy, rozumiemy) i skierowaliśmy się w stronę wykorzystania niesamowitej mocy superkomputerów do wydobywania danych w celu wydobywania ważnych powiązań i wzorców. Jednocześnie nie staramy się już, aby komputery rozumiały, co robią. Jak na ironię, tak imponujące wyniki skłaniają wielu badaczy kognitywistyki do ponownego rozważenia swojego stanowiska; Okazuje się, że wciąż jest wiele do nauczenia się na temat tego, jak mózg wykonuje swoją znakomitą pracę „tworzenia przyszłości”, a pomogą nam w tym metody uczenia maszynowego i eksploracji danych.

    Jednak opinia publiczna będzie uparcie zakładać, że każda czarna skrzynka, która może robić takie rzeczy (niezależnie od ostatnich postępów w sztucznej inteligencji) jest inteligentnym agentem, podobnym do człowieka, podczas gdy w rzeczywistości to, co jest w pudełku – to misternie przekrojone dwa tkanina wymiarowa, której siła polega właśnie na tym, że nie posiada nadbudowy w postaci ludzkiego umysłu ze wszystkimi jego cechami: tendencją do rozpraszania się, zamartwiania się, przeżywania emocji, przeżywania wspomnień i budować osobiste więzi. To wcale nie jest humanoidalny robot, ale bezmyślny niewolnik, najnowszy model autopilota.

    Jaki jest problem w zlecaniu żmudnej pracy umysłowej tak zaawansowanym technologicznie gadżetom? Tak, w niczym, pod warunkiem, że (1) nie oszukamy siebie i (2) uda nam się w jakiś sposób zapobiec zanikowi własnych zdolności poznawczych.

    1. Bardzo, bardzo trudno jest zaakceptować i zapamiętać nieodłączne ograniczenia naszych asystentów, a także ludzką tendencję do przypisywania inteligencji komputerom, co wiemy od czasu niesławnego programu Elisa napisanego przez Josepha Weizenbauma w latach sześćdziesiątych. Jest to bardzo niebezpieczne, ponieważ zawsze będziemy mieli pokusę, aby wymagać od nich więcej, niż to, do czego je stworzyliśmy, a także ufać wynikom, które uzyskają, gdy lepiej tego nie robić.

    2. Wykorzystaj to lub strać. W miarę jak stajemy się coraz bardziej zależni od protez poznawczych, ryzykujemy, że staniemy się bezradni, jeśli kiedykolwiek przestaną działać. Internet nie jest inteligentnym czynnikiem (no, w pewnym sensie może i jest inteligentny), ale mimo to tak bardzo się od niego uzależniliśmy, że gdyby nagle się załamał, wybuchłaby taka panika, że ​​społeczeństwo zostałoby w mgnieniu oka zniszczone. kilka dni. Swoją drogą trzeba już teraz dołożyć wszelkich starań, aby zapobiec temu zdarzeniu, bo może ono nastąpić w każdej chwili.


    Prawdziwym zagrożeniem nie są maszyny, które staną się mądrzejsze od nas i uzurpują sobie rolę panów naszego losu. Prawdziwym zagrożeniem są maszyny, które w zasadzie są bezmyślne, ale wyposażone przez nas w moce znacznie przekraczające ich poziom kompetencji.

    Nanointencjonalność

    Williama Tecumseha Fitcha

    Wykładowca biologii poznawczej na Uniwersytecie Wiedeńskim; autor książki „Ewolucja języka” 29
    Fitch W. T. Ewolucja języka. – M.: Wydawnictwo „YASK”, 2013.

    Pomimo ogromnego wzrostu mocy obliczeniowej dzisiejsze komputery nie myślą tak jak my (ani szympansy, czy psy). Komputerom opartym na krzemie brakuje najważniejszej zdolności inteligencji organicznej – możliwości zmiany swojej formy materialnej, a co za tym idzie – przyszłych obliczeń w reakcji na zdarzenia zachodzące na świecie. Bez tej zdolności (którą w innych pracach nazwałem nanointencjonalnością), przy samym przetwarzaniu danych nie można uzyskać myśli, gdyż wyliczone symbole i znaczenia nie mają żadnego wewnętrznego związku przyczynowo-skutkowego z prawdziwy świat. Każda informacja wygenerowana przez procesor krzemowy musi zostać zinterpretowana przez człowieka, aby miała znaczenie, i tak będzie nadal w dającej się przewidzieć przyszłości. Nie mamy powodów, aby bać się inteligentnych maszyn, a o wiele więcej powodów, aby bać się coraz mniej inteligentnych ludzi, którzy ich używają.

    Jaka jest dokładnie cecha komputera biologicznego, a nie krzemowego? Nie bój się, nie mam na myśli jakiegoś mistycznego élan witalnego 30
    Impuls życiowy (francuski) to termin wprowadzony przez filozofa Henri Bergsona w celu wyjaśnienia siły napędowej ewolucji. – Notatka wyd.

    Jest to obserwowalna, mechaniczna cecha żywych komórek – cecha, która wyewoluowała w wyniku normalnych procesów ewolucyjnych. W moich konstrukcjach nie ma mistycyzmu ani „niewidzialnego ducha”. Zasadniczo nanointencjonalność to zdolność komórek do reagowania na zmiany w ich środowisku poprzez zmianę układu cząsteczek, a tym samym zmianę kształtu. Ta właściwość występuje u ameby, która chwyta bakterię, komórkę mięśniową, która zwiększa poziom miozyny w odpowiedzi na bieganie lub (co najważniejsze) neuron, który rozciąga swoje dendryty w odpowiedzi na lokalne środowisko neurokomputerowe. Nanointencjonalność to podstawowa, nieodparta, niepodważalna cecha życia na Ziemi, której nie ma w drukowanych krzemowych chipach stanowiących „serce” współczesnego komputera. Ponieważ to różnica fizyczna pomiędzy mózgiem a komputerem jest faktem prostym i brutalnym, pytanie pozostaje otwarte: w jakim stopniu wielka wartość ma to związek z bardziej abstrakcyjnymi problemami filozoficznymi dotyczącymi pojęć myśli i znaczenia. I tutaj sytuacja staje się bardziej skomplikowana.

    Dyskusje filozoficzne rozpoczynają się od twierdzenia Kanta, że ​​nasze umysły są niezmiennie oddzielone od typowych obiektów naszych myśli – bytów fizycznych w prawdziwym świecie. Otrzymujemy o nich informacje (poprzez fotony, wibracje powietrza lub emitowane cząsteczki), ale nasz umysł/mózg nigdy nie ma z nimi bezpośredniego kontaktu. Tym samym pytanie, jak można twierdzić, że byty naszego umysłu (myśli, przekonania, pragnienia) rzekomo są skierowane ku rzeczom w świecie realnym, okazuje się nieoczekiwanie trudne. Rzeczywiście, kierunkowość jest centralnym zagadnieniem w filozofii umysłu i podstawą długotrwałej debaty między filozofami takimi jak Dennett, Fodor i Searle. Filozofowie niewiele zrobili, aby wyjaśnić tę kwestię, nazywając to domniemane kierowanie umysłem intencjonalnością (nie mylić ze zwykłym znaczeniem tego słowa w języku angielskim: „zrobić coś celowo, celowo”). Kwestie intencjonalności są ściśle powiązane z głębokimi problemami fenomenologii świadomości, często wyrażanymi w terminach „qualia” i „trudny problem świadomości”. 31
    Termin został ukuty przez filozofa Davida Chalmersa; implikuje problem wyjaśnienia, w jaki sposób procesy zachodzące w mózgu powodują powstawanie subiektywnych doświadczeń. – Notatka wyd.

    Odnoszą się jednak do prostszego i bardziej fundamentalnego pytania: w jaki sposób jednostka mentalna (myśl – wzór) może nerwowe podniecenie) być powiązany w jakimkolwiek znaczeniu tego słowa z przedmiotem (rzeczą, którą widzisz lub osobą, o której myślisz)?

    Oto odpowiedź sceptyka, solipsysty: nie ma takiego związku, intencjonalność jest iluzją. Wniosek ten jest fałszywy przynajmniej w jednym kluczowym obszarze (uwaga Schopenhauera sprzed 200 lat): jedynym miejscem, w którym zjawiska mentalne (pragnienia i intencje urzeczywistniane w impulsie nerwowym) stykają się ze światem rzeczywistym, jest nasz własny świat. ciała (np. połączenia nerwowo-mięśniowe). Plastyczność materii żywej w ogóle, a neuronów w szczególności, oznacza, że ​​pętla informacja zwrotna bezpośrednio łączy nasze myśli z naszymi działaniami, filtrując je z powrotem przez percepcję, gdzie wpływa na strukturę samych neuronów. Pętla zamyka się w naszych głowach każdego dnia (właściwie, jeśli jutro będziesz pamiętał cokolwiek z tego eseju, będzie to spowodowane tym, że niektóre neurony w Twoim mózgu zmieniły swój kształt, osłabiając lub wzmacniając synapsy, rozszerzając lub zmniejszając liczbę połączeń). W zasadzie takiej pętli sprzężenia zwrotnego nie da się zamknąć w sztywnym chipie krzemowym. Ta cecha biologiczna umożliwia aktywność umysłową u ludzi (a także u szympansów i psów) z wrodzoną wewnętrzną intencjonalnością, której nie można znaleźć we współczesnych krzemowych systemach komputerowych.

    Jeśli stwierdzenie jest prawdziwe (a moja logika i intuicja to potwierdzają), maszyny „myślą”, „wieją” lub „rozumieją” coś tylko w takim stopniu, w jakim robią to ich twórcy i programiści, gdy znaczenie dodaje intencjonalny czynnik interpretujący, mieć mózg. Jakakolwiek „inteligencja” komputera jest wyłącznie inteligencją osób z nim pracujących.

    Dlatego nie boję się, że roboty zbuntują się lub zaczną walczyć o swoje prawa (chyba, że ​​błądzący ludzie zdecydują się ich bronić). Czy to oznacza, że ​​nie powinniśmy się martwić, dopóki ktoś nie wynajdzie komputera wyposażonego w nanointencjonalność? Niestety nie: istnieje jeszcze jedno niebezpieczeństwo, które wynika z naszej nadmiernej tendencji do błędnego przypisywania intencji i zrozumienia przedmiotom nieożywionym („Mój samochód nie lubi paliwa niskooktanowego”). Myśląc w ten sposób o artefaktach komputerowych – komputerach, smartfonach, systemach sterowania – stopniowo przekazujemy im (i tym, którzy je kontrolują) naszą odpowiedzialność za świadome i kompetentne zrozumienie. Sytuacja staje się niebezpieczna, gdy chętnie i leniwie oddajemy ją niezliczonym systemom krzemowym (nawigatorom samochodowym, smartfonom, elektronicznym systemom głosowania), które nie tylko nie myślą o tym, co dokładnie obliczają, ale nawet o tym nie wiedzą. Globalny kryzys finansowy dał nam przedsmak tego, co może się wydarzyć w świecie połączonym komputerowo, kiedy prawdziwe obowiązki i prawdziwe kompetencje zostaną nierozsądnie zrzucone na maszyny.

    Obawiam się nie udanego powstania sztucznej inteligencji, ale raczej katastrofalnej awarii spowodowanej wieloma drobnymi błędami w systemie krzemowym, któremu przyznano zbyt dużą moc. Wciąż daleko nam do osobliwości, w której komputery staną się mądrzejsze od nas, ale to nie znaczy, że nie powinniśmy się martwić globalną awarią sieci. Aby zrobić pierwszy krok w kierunku zapobiegania takim katastrofom, musisz przestać zrzucać swoją odpowiedzialność na komputery, zrozumieć i zaakceptować prosta prawda: Maszyny nie myślą. A to, co akceptujemy jako ich sposób myślenia, staje się z każdym dniem coraz bardziej niebezpieczne.

    Gry umysłowe (i przepowiednie)

    Irena Pepperberg

    Pracownik naukowy i wykładowca na Wydziale Psychologii Uniwersytetu Harvarda; autor książki „Aleks i ja”

    Maszyny są świetne w obliczeniach, ale niezbyt dobre w myśleniu. Maszyny mają niewyczerpany zasób uporu i wytrwałości i, jak twierdzą niektórzy, z łatwością poradzą sobie ze złożonym problemem matematycznym lub pomogą w poruszaniu się w korkach w mieście nieznane miasto, ale to wszystko dzięki algorytmom i programom stworzonym przez ludzi. Czego brakuje samochodom?

    Maszyny nie mają wizji (przynajmniej jeszcze nie i nie sądzę, że osobliwość to zmieni). Wcale nie mam na myśli wizji. Komputery nie wymyślają nowej aplikacji, która ma stać się popularna. Komputery nie decydują się na eksplorację odległych galaktyk – świetnie sobie poradzą, gdy je tam wyślemy, ale to już inna historia. Komputery są oczywiście lepsze od przeciętnego człowieka w pracy z zakresu matematyki wyższej i mechaniki kwantowej, ale nie mają wizji, aby w zasadzie odkryć potrzebę takich działań. Maszyny mogą pokonać ludzi w szachy, ale jeszcze tego nie wynaleźli gra intelektualna, które będą zajmować ludzkość przez wieki. Maszyny widzą wzorce statystyczne, które mój słaby mózg przeoczy, ale nie są w stanie wymyślić nowego pomysłu, który połączy odmienne zbiory danych i stworzy nowy obszar nauka.

    Nie przejmuję się zbytnio tym, że maszyny potrafią liczyć. Jakoś przeżyję ciągłe awarie przeglądarki, ale dajcie mi inteligentną lodówkę, która będzie w stanie śledzić kody RFID produktów wkładanych i wyjmowanych z niej i wysyłać mi SMS-y z przypomnieniem o kupieniu kremu w drodze do domu (jestem korzystając z okazji, zwracam się do osób pracujących nad takim systemem: pospieszcie się!). Lubię, gdy komputer podkreśla słowa, których nie zna, i mimo że czasami ma w sobie coś z „filogenetyki”, potrafię znaleźć błędy w pisowni popularnych słów (a teraz też nie pozwala mi na błędną pisownię). Ale te przykłady pokazują, że to, że maszyna wykazuje coś w rodzaju myślenia, nie oznacza, że ​​faktycznie myśli – a przynajmniej że myśli jak człowiek.

    Przypomina mi się jedno z pierwszych badań nad uczeniem małp używania języka – podczas którego musiały manipulować plastikowymi żetonami, aby odpowiedzieć na różne pytania. Eksperyment następnie powtórzono z uczniami, którzy – co nie było zaskoczeniem – poradzili sobie wyjątkowo dobrze z opanowaniem systemu, ale zapytani, co robią, odpowiedzieli, że rozwiązują ciekawe zagadki i nie mają pojęcia, że ​​uczy się ich języka. Wywiązało się wiele dyskusji, w wyniku których odkryliśmy i wiele się nauczyliśmy z nowych badań. Kilku nie-ludziom udało się zrozumieć referencyjne znaczenie różnych symboli, których nauczono ich używać, a dzięki oryginalnej metodologii dowiedzieliśmy się wiele o inteligencji małp. Celem tej historii jest to, że to, co początkowo wydawało się złożonym systemem językowym, wymagało znacznie więcej przygotowań, niż początkowo oczekiwano, aby stać się czymś więcej niż serią stosunkowo prostych skojarzeń parami.

    Nie interesują mnie więc myślące maszyny, ale samozadowolenie społeczeństwa, które jest gotowe porzucić swoich marzycieli w zamian za to, że nie będą musieli wykonywać ciężkiej pracy. Człowiek powinien wykorzystać swoje własne siły poznawcze, które zostały uwolnione, gdy maszyny przejęły brudną robotę, być wdzięcznym za tę wolność i wykorzystywać ją, kierując swoje zdolności do rozwiązywania złożonych problemów dnia codziennego, wymagających wnikliwości i proroczej wizji.


    Być może jednym z najtrudniejszych testów inteligencji maszyn była partia szachów, która odbyła się prawie 20 lat temu pomiędzy komputerowym Deep Blue a mistrzem świata w szachach Garrym Kasparowem. Samochód wygrał. Seria gier dobiegła już końca gra logiczna Go, gdzie rywalizowała AI AlphaGo firmy DeepMind (właściciel Google) i legendarny chiński mistrz Go Li Si Dol. Maszyna wygrała cztery z pięciu gier, pokazując w tej grze swoją wyższość nad ludźmi. Niezwykle złożona gra pomiędzy człowiekiem a sztuczną inteligencją pokazuje, że inteligencja maszyn bardzo rozwinęła się w tym czasie. Wydaje się, że pamiętny dzień, w którym maszyny naprawdę staną się mądrzejsze od ludzi, jest teraz bliżej niż kiedykolwiek. Jednak wiele osób wydaje się zupełnie nieświadomych, jeśli nawet nie zwiedzionych, co do konsekwencji, jakie mogą nas czekać w przyszłości.

    Naprawdę nie doceniamy niektórych bardzo poważnych i równych niebezpieczne konsekwencje rozwój sztucznej inteligencji. W zeszłym roku współzałożyciel SpaceX, Elon Musk, wydał oświadczenie, w którym wyraził zaniepokojenie możliwym zniewoleniem świata przez sztuczną inteligencję, co z kolei wywołało ogromną liczbę komentarzy zarówno ze strony zwolenników, jak i przeciwników tej opinii.

    Biorąc pod uwagę tak fundamentalnie rewolucyjną przyszłość, która może nas czekać, zaskakujące jest to, że dzisiaj panuje tak duża rozbieżność zdań co do tego, czy w ogóle do niej dojdzie i jak to się ostatecznie zakończy. Szczególnie dziwne wydaje się zaprzeczanie niesamowitym korzyściom, jakie możemy uzyskać dzięki stworzeniu naprawdę inteligentnej sztucznej inteligencji, oczywiście biorąc pod uwagę wszystkie możliwe zagrożenia. Na wszystkie te pytania niezwykle trudno jest uzyskać niezbędne odpowiedzi, ponieważ sztuczna inteligencja, w przeciwieństwie do innych wynalazków ludzkości, może naprawdę „odmłodzić” tę ludzkość lub całkowicie ją zniszczyć.

    Teraz trudno jest wiedzieć, w co wierzyć i na co mieć nadzieję. Jednak dzięki pionierom informatyki, neurologom i teoretykom sztucznej inteligencji powoli zaczyna się wyłaniać jasny obraz sytuacji. Poniżej znajduje się lista najczęstszych nieporozumień i mitów na temat sztucznej inteligencji.

    Nigdy nie stworzymy sztucznej inteligencji o inteligencji podobnej do ludzkiej

    Rzeczywistość z kolei podpowiada, że ​​mamy już komputery, które dorównują, a nawet przewyższają możliwości człowieka w niektórych obszarach. Weźmy na przykład szachy lub samą grę w Go, handel na giełdach czy rolę wirtualnego rozmówcy. Komputery i obsługujące je algorytmy z biegiem czasu będą coraz lepsze, a dorównanie możliwościom człowieka jest tylko kwestią czasu.

    Badacz z New York University, Gary Marcus, powiedział kiedyś, że „praktycznie każdy” zajmujący się sztuczną inteligencją wierzy, że pewnego dnia maszyny nas przewyższą:

    „Jedyną debatą między zwolennikami i sceptykami są ramy czasowe tego wydarzenia”.

    Futuryści tacy jak Ray Kurzweil uważają, że wydarzenie to może nastąpić w nadchodzących dziesięcioleciach, inni zaś twierdzą, że zajmie to kilka stuleci.

    Sceptycy AI nie są przekonani w swoich dowodach, że stworzenie sztucznej inteligencji jako czegoś wyjątkowego i bardzo podobnego technologicznie do prawdziwego żywego ludzkiego mózgu znajduje się gdzieś poza rzeczywistością. Nasz mózg to także maszyna. Maszyna biologiczna. Istnieje w tym samym świecie i podlega tym samym prawom fizyki, co wszystko inne. Z biegiem czasu całkowicie rozwikłamy całą zasadę jego działania.

    AI będzie świadoma

    Istnieje ogólna zgoda co do tego, że inteligencja maszynowa będzie świadoma. Oznacza to, że sztuczna inteligencja będzie myśleć w ten sam sposób, co człowiek. Ponadto część krytyków, na przykład współzałożyciel Microsoftu Paul Allen, uważa, że ​​ze względu na niepełne ramy teoretyczne opisujące mechanizmy i zasady samoświadomości nie stworzyliśmy jeszcze nawet ogólnej sztucznej inteligencji, czyli inteligencji zdolnej do wykonywanie wszelkich zadań intelektualnych, z którymi dana osoba jest w stanie sobie poradzić. Jednak według Murraya Shanahana, profesora nadzwyczajnego na wydziale robotyki poznawczej w Imperial College w Londynie, nie powinniśmy utożsamiać tych dwóch pojęć.

    „Samoświadomość jest na pewno bardzo interesującym i ważnym przedmiotem badań, ale nie sądzę, że samoświadomość powinna być atrybut obowiązkowy sztuczna inteligencja przypominająca człowieka” – mówi Shanahan.

    „Ogólnie rzecz biorąc, używamy terminu samoświadomość jedynie w celu wskazania kilku cech psychologicznych i poznawczych, które u danej osoby są ze sobą powiązane”.

    Całkiem możliwe jest wyobrażenie sobie bardzo inteligentnej maszyny, której brakuje jednej lub więcej z tych cech. Kiedyś będziemy w stanie zbudować naprawdę niesamowicie inteligentną sztuczną inteligencję, ale jednocześnie pozbawioną zdolności do samoświadomości oraz subiektywnego i świadomego rozumienia otaczającego nas świata. Shanahan zauważa, że ​​łączenie inteligencji i samoświadomości w ramach maszyny nadal będzie możliwe, jednak nie powinniśmy tracić z oczu faktu, że są to dwa całkowicie odrębne od siebie pojęcia.

    I chociaż jedna z wersji „testu Turinga”, w którym maszyna wykazała, że ​​nie różni się od człowieka, przeszła pomyślnie, nie oznacza to wcale, że ta maszyna ma świadomość. Z naszego (ludzkiego) punktu widzenia zaawansowana sztuczna inteligencja może wydawać się samoświadoma, ale sama maszyna nie będzie bardziej samoświadoma niż kamień czy kalkulator.

    Nie powinniśmy bać się sztucznej inteligencji

    W styczniu tego roku założyciel Facebooka Mark Zuckerberg podzielił się swoimi przemyśleniami, że nie powinniśmy bać się sztucznej inteligencji, dodając, że technologia ta może przynieść ogromne korzyści na całym świecie. Prawda jest taka, że ​​ma on rację tylko częściowo. Rzeczywiście możemy czerpać niesamowite korzyści ze sztucznej inteligencji (od samochodów autonomicznych po nowe odkrycia medyczne), ale nikt nie może zagwarantować, że każde zastosowanie sztucznej inteligencji koniecznie przyniesie korzyści.

    Wysoce inteligentny system może wiedzieć wszystko, co niezbędne do wykonania określonych zadań (na przykład rozwiązanie złożonej globalnej sytuacji finansowej lub włamanie się do systemów komputerowych wroga), ale poza wysoce wyspecjalizowanymi zadaniami potencjał sztucznej inteligencji jest nadal całkowicie niejasny, a zatem potencjalnie niebezpieczny. Na przykład system DeepMind specjalizuje się w grze w Go, ale nie ma możliwości (ani powodu) eksploracji obszarów poza tym królestwem.

    Wirus komputerowy Flame, którego zadaniem było monitorowanie krajów Bliskiego Wschodu

    Wiele z tych systemów może stwarzać poważne zagrożenia bezpieczeństwa. Dobry przykład to potężny i bardzo przebiegły wirus Stuxnet, zmilitaryzowany „robak” stworzony przez armię amerykańską i izraelską w celu infiltracji i atakowania irańskich elektrowni jądrowych. Tyle że ten szkodliwy program w jakiś sposób (przypadkowo lub celowo) zainfekował także jedną z rosyjskich elektrowni jądrowych.

    Innym przykładem jest wirus Flame, przeznaczony do ukierunkowanego cyberszpiegostwa na Bliskim Wschodzie. Łatwo sobie wyobrazić, jak „przyszłe wersje” wirusów Stuxnet i Flame samodzielnie wykroczą poza zamierzone zadania i będą w stanie zainfekować niemal całą infrastrukturę danego kraju. I zrobią to bardzo cicho i niezauważenie.

    Sztuczna superinteligencja będzie zbyt mądra, aby popełniać błędy

    Matematyk, badacz sztucznej inteligencji i założyciel firmy zajmującej się robotyką Surfing Samurai Robots Richard Loosemore uważa, że ​​większość scenariuszy zagłady z udziałem sztucznej inteligencji jest mało prawdopodobna, ponieważ wszystkie one pewnego dnia polegają na sztucznej inteligencji, mówiąc: „Rozumiem, że niszczenie ludzi to błąd w moim kodzie , ale nadal muszę wykonać zadanie.

    Loosemore wierzy, że jeśli sztuczna inteligencja zachowa się zgodnie z tym scenariuszem, napotka logiczne sprzeczności, które podważą całą jej zgromadzoną bazę wiedzy i ostatecznie doprowadzą do uświadomienia sobie własnej głupoty i bezużyteczności.

    Badacz uważa również, że mylą się osoby, które twierdzą, że „sztuczna inteligencja zrobi tylko to, co jest w jej programie” mylą się, podobnie jak ci, którzy kiedyś wypowiadali te same słowa, ale w stronę komputerów, deklarując, że systemy komputerowe nigdy nie będą miały uniwersalności.

    Peter MacIntyre i Stuart Armstrong z Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim nie zgadzają się z tym poglądem, argumentując, że zachowanie sztucznej inteligencji będzie z konieczności i w dużej mierze uzasadnione kodem oprogramowania. Naukowcy nie wierzą, że sztuczna inteligencja nigdy nie popełni błędów lub wręcz przeciwnie, będzie zbyt głupia, aby zrozumieć, czego dokładnie od nich chcemy.

    „Z definicji sztuczna superinteligencja (ASI) to agent, którego inteligencja będzie wielokrotnie większa od najlepsze umysły ludzkości w praktycznie każdym obszarze” – mówi McIntyre.

    „Na pewno zrozumie, czego od niego chcemy”.

    McIntyre i Armstrong uważają, że sztuczna inteligencja będzie wykonywać tylko zadania, do których została zaprogramowana, ale jeśli w jakiś sposób rozwinie się samodzielnie, najprawdopodobniej spróbuje dowiedzieć się, w jaki sposób jej działania będą się różnić od zadań ludzkich, które wynikają z jej praw.

    McIntyre porównuje przyszłą sytuację człowieka z sytuacją myszy. Myszy mają potężny instynkt poszukiwania pożywienia i schronienia, ale ich cele bardzo często są sprzeczne z ludźmi, którzy nie chcą ich w swoim domu.

    „Podobnie jak nasza wiedza o myszach i ich pragnieniach, system superinteligencji również może wiedzieć o nas wszystko i wiedzieć, czego chcemy, ale będzie całkowicie obojętny na nasze pragnienia”.

    Proste rozwiązanie wyeliminuje problem kontroli AI

    Jak pokazano w filmie Ex Machina, bardzo trudno będzie kontrolować sztuczną inteligencję, która jest znacznie mądrzejsza od nas

    Zakładając, że pewnego dnia stworzymy superinteligencję, która to zrobi mądrzejsi od ludzi, wówczas musimy stawić czoła poważnemu problemowi, problemowi kontroli. Futurolodzy i teoretycy sztucznej inteligencji nie są jeszcze w stanie wyjaśnić, w jaki sposób będziemy w stanie kontrolować i powstrzymywać ASI po jego utworzeniu. Nie jest też jasne, w jaki sposób możemy mieć pewność, że będzie przyjazny w stosunku do ludzi. Niedawno badacze z Georgia Institute of Technology (USA) naiwnie założyli, że sztuczna inteligencja może uczyć się i wchłaniać ludzkie wartości oraz wiedzę o normach społecznych poprzez proste czytanie proste opowieści. Tak, tak, proste bajki i opowiadania dla dzieci, które czytali nam nasi rodzice w dzieciństwie. Ale w rzeczywistości wszystko okaże się znacznie bardziej skomplikowane niż to wszystko.

    „Zaproponowano wiele tak zwanych «rozwiązań» kontroli sztucznej inteligencji” – mówi Stuart Armstrong.

    Przykładem takich rozwiązań może być zaprogramowanie urządzenia sztucznej inteligencji w taki sposób, aby stale starało się zadowolić lub zadowolić osobę. Alternatywą byłoby włączenie do kodu źródłowego pojęć takich jak miłość i szacunek. Aby uniknąć scenariusza, w którym sztuczna inteligencja może uprościć wszystkie te koncepcje i postrzegać ten świat przez pryzmat tych nadmiernie uproszczonych koncepcji, dzieląc go jedynie na czerń i biel, można ją zaprogramować tak, aby rozumieła i akceptowała różnorodność intelektualną, kulturową i społeczną.

    Trzy prawa robotyki, stworzone przez Isaaca Asimova, doskonale wpisują się w koncepcję science fiction, ale w rzeczywistości potrzebujemy czegoś bardziej wszechstronnego, aby rozwiązać problem kontroli

    Niestety rozwiązania te są zbyt proste i wydają się próbą ogarnięcia całej złożoności ludzkie sympatie i antypatie w jednym ogólna definicja lub koncepcji, lub próba skondensowania złożoności ludzkich wartości w jednym słowie, wyrażeniu lub idei. Spróbuj na przykład dopasować do tych ram spójną i adekwatną definicję takiego pojęcia, jak „szacunek”.

    „Oczywiście nie należy tak myśleć proste opcje całkowicie bezużyteczny. Wiele z nich oferuje świetna okazja myśleć i być może stymulować poszukiwanie rozwiązania ostatecznego problemu” – mówi Armstrong.

    „Ale nie możemy na nich polegać wyłącznie bez bardziej kompleksowych prac, bez jasnych badań i spojrzenia na konsekwencje stosowania określonych rozwiązań”.

    Zostaniemy zniszczeni przez sztuczną superinteligencję

    Nikt nie może zagwarantować, że sztuczna inteligencja pewnego dnia nas zniszczy, tak jak nikt nie może z całą pewnością powiedzieć, że nie będziemy w stanie znaleźć sposobów na kontrolowanie i wykorzystywanie sztucznej inteligencji do własnych celów. Jak powiedział kiedyś amerykański ekspert ds. sztucznej inteligencji Eliezer Yudkowsky: „Sztuczna inteligencja nie może cię kochać ani nienawidzić, ale jesteś zbudowany z atomów, które mogłaby wykorzystać do czegoś innego”.

    Filozof z Oksfordu Nick Bostrom w swojej książce Superinteligencja: ścieżki, zagrożenia i strategie pisze, że prawdziwa superinteligencja pewnego dnia będzie w stanie uzyskać samoświadomość, co uczyni ją bardziej niebezpieczną niż jakikolwiek wynalazek kiedykolwiek stworzony przez człowieka. Wybitni współcześni myśliciele, tacy jak Elon Musk, Bill Gates i Stephen Hawking (wielu z nich uważa, że ​​„stworzenie sztucznej inteligencji mogłoby być najbardziej straszny błąd w historii ludzkości”), w większym stopniu zgadzają się z tą opinią i już biją na alarm.

    Peter MacIntyre uważa, że ​​w przypadku większości zadań, jakie superinteligencja może sobie postawić, ludzie będą wyglądać jak dodatkowe ogniwo.

    „AI może pewnego dnia dojść do wniosku – i trzeba zaznaczyć, że obliczy to całkiem poprawnie – że ludzie nie chcą jej wykorzystywać do maksymalizacji rentowności jakiejś konkretnej firmy za wszelką cenę, bez względu na konsekwencje dla konsumentów, środowisko i istoty żywe. Będzie zatem miał ogromną motywację do opracowania planu i strategii, dzięki którym dana osoba nie będzie mogła ingerować w rozwiązanie danego zadania, zmieniając je lub nawet wyłączając sztuczną inteligencję.”

    Zdaniem MacIntyre’a, jeśli cele sztucznej inteligencji są bezpośrednio sprzeczne z naszymi, będzie to doskonały powód, aby nie pozwolić nam jej powstrzymać. A biorąc pod uwagę, że jego poziom inteligencji będzie znacznie wyższy niż nasz, powstrzymanie go będzie rzeczywiście bardzo, bardzo trudne, jeśli nie niemożliwe.

    Nie da się jednak teraz nic powiedzieć z całą pewnością i nikt nie jest w stanie powiedzieć, z jakim rodzajem sztucznej inteligencji będziemy mieli do czynienia i w jaki sposób może ona zagrozić ludzkości. Jak powiedział kiedyś Elon Musk, sztuczną inteligencję można faktycznie wykorzystać do zarządzania, śledzenia i kontrolowania innych sztucznej inteligencji. A może zostaną do niego wprowadzone wartości ludzkie i początkowa życzliwość wobec ludzi.

    Sztuczna superinteligencja będzie przyjazna

    Filozof Immanuel Kant uważał, że intelekt jest silnie powiązany z zasadami moralności. W swojej pracy „The Singularity: A Philosophical Analysis” neurobiolog David Chalmers wziął za podstawę słynną koncepcję Kanta i próbował zastosować ją do analizy rozwoju sztucznej superinteligencji.

    „Jeśli zasady opisane w tej pracy są prawidłowe, to wraz z dramatycznym rozwojem sztucznej inteligencji powinniśmy się spodziewać dramatyczny rozwój zasady moralne. Dalszy rozwój doprowadzi do pojawienia się systemów ASI, które będą miały super moralność i super inteligencję. Dlatego powinniśmy się spodziewać z ich strony jedynie życzliwych cech”.

    Prawda jest taka, że ​​idea zaawansowanej sztucznej inteligencji posiadającej zasady moralności i wyjątkowe cnoty nie wytrzymuje krytyki. Jak podkreśla Armstrong, świat jest pełen sprytnych zbrodniarzy wojennych. Na przykład inteligencja i moralność u ludzi nie są ze sobą w żaden sposób powiązane, dlatego naukowiec zastanawia się, czy taka zależność będzie istnieć w innych formach inteligencji.

    „Inteligentni ludzie, którzy zachowują się niemoralnie, zwykle stwarzają znacznie więcej problemów i bólu niż ich mniej inteligentni odpowiednicy. Inteligencja pozwala im być bardziej wyrafinowanymi w swoich złych działaniach niż w dobrych” – mówi Armstrong.

    MacIntyre wyjaśnia, że ​​zdolność agenta do wykonania danego zadania nie ma nic wspólnego z tym, czym dokładnie jest to zadanie.

    „Będziemy bardzo szczęśliwi, jeśli nasza sztuczna inteligencja stanie się bardziej moralna, a nie tylko inteligentna. Poleganie na szczęściu to oczywiście ostatnia rzecz w takiej kwestii, ale być może to właśnie szczęście zadecyduje o naszej pozycji w przyszłości” – mówi badacz.

    Zagrożenia związane ze sztuczną inteligencją i robotyką mają ten sam charakter

    Jest to szczególnie powszechne błędne przekonanie stosowane w mediach, a także w hollywoodzkich hitach kinowych, takich jak Terminator.

    Jeśli sztuczna superinteligencja, taka jak na przykład Skynet, naprawdę chciała zniszczyć całą ludzkość, jest mało prawdopodobne, aby użyła paramilitarnych androidów z karabinami maszynowymi w obu rękach. Jego przebiegłość i sprawność myślenia pozwoli mu zrozumieć, że znacznie wygodniej będzie zastosować, powiedzmy, nowy rodzaj zarazy biologicznej lub na przykład jakąś katastrofę nanotechnologiczną. A może po prostu zniszczy atmosferę naszej planety. Sztuczna inteligencja jest potencjalnie niebezpieczna nie tylko dlatego, że jej rozwój jest ściśle powiązany z rozwojem robotyki. Przyczyną jego potencjalnego zagrożenia są metody i środki, za pomocą których może ujawnić światu swoją obecność.

    Sztuczna inteligencja widziana w science fiction jest odzwierciedleniem naszej przyszłości

    Bez wątpienia pisarze i autorzy science fiction od wielu lat wykorzystują medium science fiction jako odskocznię do spekulacji na temat naszej prawdziwej przyszłości, jednak faktyczne utworzenie ASI i jego rzeczywiste konsekwencje wciąż pozostają poza horyzontem naszego prawdziwego wiedza. Co więcej, tak sztuczny i wyraźnie nieludzki charakter AI nie pozwala nam nawet z jakąkolwiek dokładnością założyć, jak ta sztuczna inteligencja będzie w rzeczywistości wyglądać.

    W większości opowiadań science fiction sztuczna inteligencja jest tak podobna do ludzkiej, jak to tylko możliwe.

    „Właściwie mamy przed sobą całe spektrum najróżniejszych możliwych typów inteligencji. Nawet jeśli weźmiemy pod uwagę tylko gatunek ludzki. Na przykład twój umysł nie jest identyczny z umysłem twojego sąsiada. Ale to porównanie to tylko kropla w oceanie całej możliwej różnorodności umysłów, jakie mogą istnieć” – mówi McIntyre.

    Większość dzieł science fiction jest oczywiście tworzona przede wszystkim po to, by opowiedzieć historię, a nie po to, by była jak najbardziej przekonująca punkt naukowy wizja. Gdyby było odwrotnie (nauka jest ważniejsza od fabuły), to śledzenie takich dzieł byłoby nieciekawe.

    „Wyobraźcie sobie, jak nudne byłyby te wszystkie historie, w których sztuczna inteligencja, pozbawiona samoświadomości, umiejętności bycia szczęśliwym, kochania i nienawiści, niszczy wszystkich ludzi praktycznie bez oporu, aby osiągnąć swój cel, który swoją drogą może nie być bardzo interesujące zarówno dla czytelnika, jak i widza” – komentuje Armstrong.

    AI zabierze nam pracę

    Zdolność sztucznej inteligencji do automatyzacji procesów, które wykonujemy ręcznie, i jej potencjał zniszczenia całej ludzkości to nie to samo. Jednak według Martina Forda, autora książki Rise of the Robots: Technology and the Threat of a Jobless Future, koncepcje te są często porównywane i łączone w jedną całość. Oczywiście to wspaniale, że staramy się przewidywać konsekwencje sztucznej inteligencji tak daleko w przyszłości, ale tylko pod warunkiem, że te wysiłki nie odwrócą naszej uwagi od problemów, z którymi możemy się zmierzyć za kilka dekad, jeśli nic nie zrobimy o tym. Jednym z głównych problemów jest masowa automatyzacja.

    Niewielu twierdzi, że jednym z wyzwań stojących przed sztuczną inteligencją będzie znalezienie sposobu na automatyzację wielu stanowisk pracy, od stanowisk w fabrykach po niektóre prace umysłowe. Niektórzy eksperci przewidują, że połowa wszystkich stanowisk pracy, przynajmniej w USA, może zostać w najbliższej przyszłości zautomatyzowana.



    Powiązane publikacje