Czym jest sztuczna inteligencja? Czym jest sztuczna inteligencja (AI): definicja pojęcia w prostych słowach Czy istnieje sztuczna inteligencja?

Dla The Architects of Intelligence: The Truth About Artificial Intelligence From Its Creators, pisarz i futurolog Martin Ford przeprowadził wywiady z 23 najwybitniejszymi badaczami sztucznej inteligencji, w tym z dyrektorem generalnym DeepMind Demisem Hassabisem, dyrektorem generalnym Google AI Jeffem Deanem oraz dyrektorem ds. sztucznej inteligencji w Stanford Fay. Ford zapytał każdego z nich, w którym roku prawdopodobieństwo stworzenia silnej AI wyniesie co najmniej 50%.

Spośród 23 osób 18 odpowiedziało, a tylko dwie zgodziły się opublikować przepowiednie pod własnym nazwiskiem. Co ciekawe, udzielili najbardziej ekstremalnych odpowiedzi: Ray Kurzweil, futurysta i dyrektor inżynierii w Google, nazwany 2029 oraz Rodney Brooks, robotyk i współzałożyciel firmy iRobot, nazwany 2200. Pozostałe domysły wypadły między tymi dwoma biegunami, średnia wynosi 2099, czyli 80 lat później.

Ford twierdzi, że eksperci zaczęli podawać bardziej odległe daty - w ankietach z ostatnich lat stwierdzili, że silna sztuczna inteligencja może pojawić się za około 30 lat.

„Prawdopodobnie istnieje pewna korelacja między tym, jak zarozumiały lub optymistyczny jesteś, a tym, jak młody jesteś” – dodał pisarz, zauważając, że kilku z jego rozmówców miało 70 lat i doświadczyło wzlotów i upadków sztucznej inteligencji. „Po dziesięcioleciach pracy nad tym problemem możesz być trochę bardziej pesymistyczny”, mówi.

Ford zwrócił również uwagę, że eksperci mają różne opinie na temat tego, jak pojawi się sztuczna inteligencja ogólnego przeznaczenia. Niektórzy twierdzą, że dostępna technologia jest do tego wystarczająca, podczas gdy inni zdecydowanie się z tym nie zgadzają.

Niektórzy badacze twierdzą, że większość narzędzi jest już gotowa, a teraz wymaga to tylko czasu i wysiłku. Ich przeciwnicy są przekonani, że wciąż brakuje wielu fundamentalnych odkryć, aby stworzyć silną sztuczną inteligencję. Według Forda naukowcy, których prace skupiają się na głębokim uczeniu się, sądzą, że przyszłe postępy będą dokonywane za pomocą sieci neuronowych, konia pociągowego współczesnej sztucznej inteligencji. Dla tych, którzy mają doświadczenie w innych obszarach sztucznej inteligencji, zbudowanie silnej wersji sztucznej inteligencji wymagałoby dodatkowych technik, takich jak logika symboliczna.

„Niektórzy ludzie w obozie głębokiego uczenia się bardzo lekceważą pomysł bezpośredniego rozwijania czegoś takiego zdrowy rozsądek w AI. Uważają, że to głupie. Jeden z nich powiedział, że to tak, jakby próbować wepchnąć fragmenty informacji prosto do mózgu” – mówi Ford.

Wszyscy rozmówcy zauważyli ograniczenia obecnych systemów sztucznej inteligencji i kluczowe umiejętności, których jeszcze nie opanowali, w tym uczenie się transferu, w którym wiedza z jednego obszaru jest stosowana w innym, oraz uczenie się nienadzorowane, w którym systemy uczą się nowych rzeczy bez interwencji człowieka. Zdecydowana większość nowoczesne metody Systemy uczenia maszynowego opierają się na danych oznaczonych przez człowieka, co stanowi główną przeszkodę w ich rozwoju.

Rozmówcy podkreślali również absolutną niemożność dokonywania prognoz w dziedzinie takiej jak sztuczna inteligencja, gdzie kluczowe odkrycia nie wchodzą w grę aż do dziesięcioleci po ich odkryciu.

Stuart Russell, profesor na Uniwersytecie Kalifornijskim w Berkeley i autor jednego z przełomowych podręczników na temat sztucznej inteligencji, zwrócił uwagę, że technologie budowania silnej sztucznej inteligencji „nie mają nic wspólnego z big data lub potężniejszymi maszynami”.

„Zawsze opowiadam historię z fizyki jądrowej. Punkt widzenia wyrażony przez Ernesta Rutherforda 11 września 1933 r. był taki, że energii nie można wydobyć z atomów. Jednak następnego ranka Leo Szilard przeczytał przemówienie Rutherforda, wpadł w złość i wynalazł neutronową reakcję łańcuchową! Tak więc prognoza Rutherforda została obalona po około 16 godzinach. Podobnie, nie ma sensu dokonywać dokładnych prognoz w sztucznej inteligencji” – powiedział Russell.

Naukowcy nie zgodzili się również co do potencjalnych zagrożeń związanych ze sztuczną inteligencją. Nick Bostrom, filozof z Oxfordu i autor „Sztuczna inteligencja: etapy”. Zagrożenia. Strategie i ulubieniec Elona Muska twierdzą, że sztuczna inteligencja jest większym zagrożeniem dla ludzkości niż zmiana klimatu. On i jego zwolennicy uważają, że jednym z największych wyzwań w tej dziedzinie jest nauczanie AI o ludzkich wartościach.

„Nie chodzi o to, że AI znienawidzi nas za zniewolenie nas, albo o to, że nagle pojawi się iskra świadomości i zbuntuje się. Raczej będzie bardzo pilnie dążył do celu, który różni się od naszej prawdziwej intencji” – powiedział Bostrom.

Większość respondentów stwierdziła, że ​​kwestia zagrożenia AI jest niezwykle abstrakcyjna w porównaniu z takimi kwestiami, jak spowolnienie gospodarcze i wykorzystanie zaawansowanych technologii w wojnie. Barbara Gross, profesor sztucznej inteligencji na Harvardzie i główny wkład w dziedzinie przetwarzania języka, powiedziała, że ​​problemy etyczne silnej sztucznej inteligencji są w większości „rozpraszające”.

„Mamy szereg problemów etycznych z istniejącą sztuczną inteligencją. Myślę, że nie powinniśmy się od nich odwracać z powodu przerażających futurystycznych scenariuszy” – powiedziała.

Według Forda takie spory można nazwać najważniejszym wynikiem jego badania: pokazują one, że w tak złożonym obszarze, jak: sztuczna inteligencja Nie ma łatwych odpowiedzi. Nawet najwybitniejsi naukowcy nie mogą dojść do konsensusu co do fundamentalnych problemów tej dziedziny wiedzy.

Sztuczna inteligencja i technologie uczenia maszynowego przestały być science fiction i stały się już częścią naszego życia. Głównym motorem ich rozwoju jest duży biznes: przemysł, handel detaliczny, bankowość. Problemy i specyfika wdrażania AI w Rosji zostały omówione z Jet Infosystems.

Władimir MołodychKierownik Dyrekcji Rozwoju i Wdrożeń Oprogramowania w Jet Infosystems

Jakie znaczenie mają dziś technologie sztucznej inteligencji? Jakie możliwości i w jakich obszarach otwiera przed ludźmi rozwój sztucznej inteligencji?

Możemy mówić o sztucznej inteligencji jako o koncepcji filozoficznej i futurologicznej z filmów o przyszłości. Ale jeśli o tym porozmawiamy prawdziwe życie, to oznacza taką lub inną kombinację metod uczenia maszynowego: gdy bierzemy duży zestaw zgromadzonych danych, tworzymy na ich podstawie model za pomocą specjalnej zaawansowanej matematyki i uczymy go rozwiązywania konkretnego problemu.

Oznacza to, że w prawdziwym życiu sztuczna inteligencja ma zastosowanie w obszarach, w których istnieje duża ilość zgromadzonych danych. Są różnych typów. Kiedy masz warunkowo trzy typy danych, jeden analityk może je obsłużyć. Ale jeśli jest więcej niż tysiąc parametrów, a niektóre z nich są nieustrukturyzowane, to nie zmieści się to w głowie żadnego analityka. W takich przypadkach umysł ludzki, wspomagany narzędziami analitycznymi poprzedniego ładu technologicznego, nie jest w stanie normalnie analizować wszystkiego. Uprości, przyjmie trzy lub cztery kluczowe parametry. I właśnie wtedy uczenie maszynowe – czym jest praktyczna implementacja AI – okazuje się skuteczne.

Dlaczego dzisiaj mówi się o sztucznej inteligencji, chociaż na pierwszy rzut oka odpowiednia matematyka i komputery istniały dwadzieścia lat temu?

Jeśli mówimy o zadaniach wysokospecjalistycznych, to wcześniej używano tam uczenia maszynowego. Istnieją cztery kluczowe czynniki, dzięki którym możemy powiedzieć, że AI to nowy globalny trend, który zmienia świat. Po pierwsze, danych jest więcej, na przykład jeśli wcześniej w produkcji były tylko papierowe zapisy, teraz na maszynach są czujniki, które zbierają informacje. Drugi i trzeci czynnik to wzrost mocy obliczeniowej oraz rozwój odpowiednich dziedzin matematyki. Koszt rozwiązań jest zmniejszony: ze względu na obniżenie kosztów „żelaza”, teraz nie trzeba czekać na zwrot projektu w produkcji przez dziesięć lat. I wreszcie praktyka biznesowa stopniowo się rozwija, pojawiają się specjaliści z doświadczeniem projektowym w tym obszarze.

Dlaczego proces wprowadzania AI w Rosji przebiega powoli?

To tak. Teraz w Rosji naprawdę mówią więcej o sztucznej inteligencji niż w rzeczywistości. Temat jest modny i aby zrelacjonować go „na szczyt”, wielu ogłasza jakiś hackathon i pokazuje zdjęcia na Instagramie. A wynik, który zmienia biznes, nie pojawia się. Na podstawie naszego doświadczenia widzimy, że w większości największych organizacji w Rosji sztuczna inteligencja jest z powodzeniem wdrażana tylko w 5-7% przypadków z tego, o czym mówią.

Faktem jest, że jest to nowy rodzaj projektu, z którym nadal nie wiedzą, jak kompetentnie pracować. To złożona historia: za pomocą uczenia maszynowego jedno zadanie można rozwiązać dość szybko, ale wymaga to znacznej restrukturyzacji procesów biznesowych. Przykład: możesz stworzyć model indywidualnych rekomendacji dla klientów sieci handlowej, ale jeśli razem z tym działa klasyczny marketing, na przykład promocje w stylu „10% rabatu na wszystko”, to te rekomendacje nie będą działać. Albo np. zbudowaliśmy model do przewidywania usterek i awarii samochodów we flocie, ale w trakcie budowy tego modelu zmienił się dostawca paliwa. I to też są dane, które wpływają na model - i to się kruszy. Oznacza to, że organizacja musi się zmienić, aby jej procesy odpowiadały zadaniom, które można rozwiązać za pomocą uczenia maszynowego: skutecznie budować wymianę danych między działami i tak dalej. Jest to zestaw zmian, które musisz umieć wprowadzić i musisz być gotowy do walki o to.

Wciąż jesteśmy na etapie generowania rynku, a jego nowość powoduje trudności. W szczególności trafiliśmy na sytuację na produkcji, kiedy ludzie myśleli: „Więc to nie my będziemy walczyć z małżeństwem, ale jakiś model AI, a my, jak się okazuje, nie jesteśmy potrzebni”. Motywacja ucierpiała, a zamiast pomagać ludziom zaangażowanym w krytykę. Przed zarządem z jednej strony stoi jakiś specjalista ds. danych z Moskwy, a z drugiej 45-letni mężczyzna, który zna produkcję od podszewki i mówi: „To nie zadziała, ale ty nic nie rozumiem”. I widać, że w takiej sytuacji reżyser nie czuje się zbyt pewnie.

Które branże w Rosji najczęściej korzystają ze sztucznej inteligencji i dlaczego?

Po pierwsze są to innowacyjne firmy internetowe. Ten sam „Yandex” - tam jest powszechnie używany wszędzie. Jeśli weźmiemy pod uwagę duże branże, na pierwszym miejscu będzie handel detaliczny, a także banki i firmy ubezpieczeniowe. Ale jestem absolutnie pewien, że największy potencjał AI tkwi w przemyśle: to realne procesy produkcyjne z realnymi pieniędzmi i możliwością obniżenia kosztów. Ale ta branża wciąż jest nieco w tyle, bo jest bardziej konserwatywna niż handel detaliczny, który ze względu na konkurencyjne otoczenie musi się bardzo szybko rozwijać.


Wszędzie tam, gdzie jest dużo danych. Efekt będzie szczególnie dobry w przemyśle. Kryteria - dostępność danych i co można zoptymalizować. Mogą to być zadania konserwacyjne, naprawcze, walka z małżeństwem, prognozowanie, „cyfrowe bliźniaki”, które pozwalają na analizę. Lepiej jest patrzeć nie na gałęzie, ale na rodzaj zadań. Jeśli jest to produkcja jednostkowa, taka jak produkcja samolotów myśliwskich, to dla większości zadań po prostu nie będzie potrzebnej ilości danych. A jeśli jest to wielkogabarytowa, jak walcowana stal czy masowy montaż samochodów, to sztuczna inteligencja będzie tutaj skuteczna.

Po co wdrażać AI w przedsiębiorstwie?

Przedsiębiorstwo zazwyczaj zajmuje się zarabianiem pieniędzy – i dzięki temu zarobi więcej. Dziś procesy produkcyjne krok po kroku stają się coraz bardziej skomplikowane, pojawia się coraz więcej czynników i niuansów. Jeśli wcześniej cały proces produkcyjny mieścił się w głowie jednego technologa, to teraz wykracza poza to, co jedna osoba lub grupa ludzi może brać pod uwagę. W związku z tym coraz bardziej złożony proces produkcyjny wymaga nowych rozwiązań, w szczególności AI i uczenia maszynowego.

Ponadto szczególnie cenne w produkcji są osoby z pewnymi unikalnymi kompetencjami. Mogą zachorować, przejść na emeryturę, a wykorzystanie AI zwiększa odporność biznesu na czynnik ludzki.

Jakie są najczęstsze nieporozumienia dotyczące sztucznej inteligencji, z którymi najczęściej się spotykasz?

Złudzenia są dwojakiego rodzaju. Po pierwsze: „Teraz wezmę specjalistę od danych, zbuduje dla mnie model, a za kilka tygodni wszystko będzie ze mną latać”. To się nigdy nie zdarza. Inny typ: „To wszystko fikcja i opowieści, ale mamy inne życie, w którym to wszystko nie ma zastosowania”. A prawda jest właściwie gdzieś pośrodku.

Panuje powszechne przekonanie, że z biegiem czasu sztuczna inteligencja będzie w stanie całkowicie zastąpić ludzi w przemyśle wytwórczym i innych branżach. Dzielisz się tym?

W skali 3-5-10 lat powstaną konkretne obszary, w których dana osoba zostanie zastąpiona. Obecnie testowane są bezzałogowe pojazdy, które prawdopodobnie będą stopniowo zastępować kierowców, ponieważ pozwala to na zmniejszenie wypadkowości i uniknięcie płacenia kierowcom pieniędzy. Jeśli mówimy o biznesie, to dzieje się to na naszych oczach. Jeśli wcześniej człowiek podejmował decyzje sam, teraz robi to za pomocą uczenia maszynowego lub robotyki. Tam, gdzie kiedyś pracowało sto osób, teraz może być jeden technolog, jeden analityk danych, a resztę wykonują maszyny.

W pierwszej kolejności zastąpione będą zadaniami typowymi. Osoby zaangażowane w indywidualne, twórcze zadania są na razie bezpieczne. A w obszarach, w których tysiące pracowników na tych samych stanowiskach pracuje zgodnie z zasadami, za trzy do pięciu lat zastąpi ich sztuczna inteligencja.

Jak rozpocząć proces wdrażania AI w przedsiębiorstwie?

Pierwszym krokiem jest znalezienie doświadczonego zespołu, który rozumie, jak to zrobić. Ponieważ jest tu wiele pułapek i trzeba się z nimi uporać. Drugim jest znalezienie zadań, które można rozwiązać z korzyścią dla firmy, zbudowanie kompetentnych, rozsądnych wskaźników i zrozumienie, jak zamienić je na pieniądze. W końcu ważny jest też szybki sukces.

Jak decydujesz, czy zrobić to sam, czy zatrudnić wykonawcę?

Każda firma powinna stopniowo dążyć do tego, by IT stało się dla niej nie tylko funkcją wspierającą, ale czymś, co pomaga zarabiać pieniądze. Oznacza to, że musi rozwijać kompetencje informatyczne, a to nie jest szybki proces. Dlatego na początkowym etapie racjonalne jest zaangażowanie ekspertów, a następnie wspólnie z nimi decydowanie, w jakich obszarach firma powinna się sama rozwijać, a w jakich powinna polegać na partnerach.


Jak wybrać partnera?

Ważne jest, aby zrozumieć, że temat sztucznej inteligencji jest złożony. Potrzebujemy zespołu, który nie tylko rozumie statystyki analityczne, analitykę danych, uczenie maszynowe, ale także posiada złożone kompetencje: od zarządzania projektami po umiejętność pracy z danymi, systemy o dużym obciążeniu i czyszczenie danych. Bezpieczeństwo informacji jest również ważne, ponieważ nowe typy rozwiązań informatycznych niosą ze sobą nowe zagrożenia informatyczne, a stare nie znikają. Dlatego potrzebujemy zespołu, który może to wszystko zrobić.

Jak widzisz zmianę technologii AI w przyszłości?

W praktyce natomiast ważne jest opanowanie tego, co jest. Jeśli mówimy o przyszłości, to wydaje mi się, że technologia będzie zmierzać przede wszystkim w kierunku uczenia się przez wzmacnianie, samodzielnego uczenia się, gdy system będzie się sam szkolił w oparciu o świeże dane. Ale na razie jest to bardziej teoria niż praktyka. Jeśli chodzi o nauczanie komputera, jak grać w Go, uczenie się ze wzmocnieniem działa. A w bardziej złożonych problemach praktycznych, nie tak daleko.

Czy istnieje wiele platform do praktycznej dyskusji o problemach AI w Rosji?

Istnieje wiele różnych forów i wszyscy mówią o sztucznej inteligencji. Temat jest hype, tutaj może się okazać jak z nanotechnologią. Widząc to wszystko, organizujemy własne rosyjskie Forum Sztucznej Inteligencji (RAIF). W tym roku odbędzie się po raz trzeci i odbędzie się w dniach 22-23 października w Skołkowie w ramach międzynarodowego forum Open Innovations. Tutaj mówimy tylko o praktyce: jakie są problemy w tym obszarze, trudności i tak dalej.

Jaki jest główny temat tegorocznego forum?

W tym roku głównym tematem forum jest to, jak „pchnąć” projekt AI do komercyjnego działania, aby przyniósł rezultaty. Skupiamy się również na wszystkich powiązanych tematach. Mamy sekcje dotyczące big data, bezpieczeństwa informacji, sprzętu. Skupiamy matematyków, programistów, specjalistów od sprzętu, specjalistów od infrastruktury i eksploatacji.

Mówimy o prawdziwej praktyce, a nie problemach naukowych – chociaż mamy na ten temat osobny rozdział. Ale przede wszystkim gromadzimy ludzi, którzy realizują projekty AI, opowiadają o własnych doświadczeniach, wskazują pułapki. A co najważniejsze, zawsze myślimy o zadaniach kompleksowo, w kontekście projektu, a nie jakiejś filozofii czy nauki.


Fakty ICTV mówią, dlaczego nie ma sztucznej inteligencji, w jaki sposób ekspres do kawy wykorzystuje Twoje dane osobowe i czy kiedyś zastąpi pracę ludzi.

Hanson Robotics z Hongkongu tworzy miejsca pracy, aby pomóc osobom starszym w domach opieki. Wygląd Sophii był wzorowany na podobieństwie do aktorki Audrey Hepburn.


Media przyzwyczaiły się już do nazywania Sophii sztuczną inteligencją. Nic dziwnego, bo humanoidalny robot komunikuje się z nami, wyraża swoje emocje i dowcipnie żartuje.

Ale Sophia to nie sztuczna inteligencja.

Fakty ICTV w ramach Kijowskiego Międzynarodowego Forum Ekonomicznego rozmawiało z Natalią Kosminą, badaczką sztucznej inteligencji z Massachusetts Institute of Technology.

Wyjaśniła, czym jest Sophia, dlaczego nie istnieje sztuczna inteligencja i jak nauczyć się ostrożnie korzystać z danych osobowych.

Popularność Sophii wynika z jej podobieństwa do prawdziwej osoby – robota typu humanoidalnego. Ale w rzeczywistości jest to tylko algorytm zadań zaprojektowanych przez inżynierów:

To tylko pewien zestaw algorytmów - można je wbudować w humanoidalnego robota, można je wbudować w robota wyglądającego jak pies lub można je "wsadzić" do tej butelki z wodą (śmiech - Auth.). I będzie to ten sam robot co Sophia, ale wygląda jak puszka wody.

W Sofii nie ma prawdziwych emocji. Wszystko, co robi, jest w niej zaprogramowane przez pewien algorytm. Coś jak chatbot. Zgadzam się, Siri może też żartować i rozmawiać z tobą.

A kiedy Sophia żartuje, to nic innego jak błąd systemu. Kiedy zapytano ją, jak przezwyciężyć korupcję na Ukrainie, odłożyła słuchawkę. Przyjęliśmy to jako odpowiedź. Podobno nawet sztuczna inteligencja nie jest w stanie rozwiązać problemu korupcji.

Takie małe zabawne incydenty są częstym błędem. System nie jest w stanie zrozumieć i przetworzyć żądanych informacji – wyjaśnia Natalia.

Sophia to nic innego jak zestaw algorytmów. Jest zaprogramowana do komunikowania się z ludźmi i odnosi sukces. Podobnie jak dzieła Boston Dynamics są zaprogramowane do poruszania się.


Robią to najlepiej na świecie – robią parkour, grają w piłkę nożną i dźwigają ciężkie rzeczy. I nie potrafią mówić, tak jak Sophia nie potrafi chodzić i pokonywać przeszkód.

Bardzo poprawne jest nazywanie takich systemów po prostu algorytmami. Sofia jest bardzo dobry zespół algorytmy zebrane razem, w tym przypadku w jednej pracy. Pozwalają pracy poruszać się, mówić i odpowiadać.

Sztuczna inteligencja nie istnieje

Jeśli Sophia to tylko zestaw określonych zadań, to czym jest sztuczna inteligencja? W filmach jesteśmy przyzwyczajeni do oglądania programów komputerowych, które są w stanie zalać świat i zniszczyć ludzkość.

Największą wadą sztucznej inteligencji jest to, że nie istnieje. Czasami wygodniej jest nazwać rzecz „sztuczną inteligencją” niż wyjaśniać, co to jest. Teraz są algorytmy. Są bardzo dobrze rozwinięte do rozwiązania co najwyżej jednego lub dwóch problemów. Nie ma sztucznej inteligencji jako takiej. Wciąż jesteśmy od tego bardzo daleko – mówi badacz.

Na szczęście lub odwrotnie robot, który byłby mądrzejszy od człowieka, nie istnieje. Człowiek jest w stanie wykonać wiele zadań i szybko się uczyć – wyjaśnia Natalia.

Dzieła mogą wykonywać tylko jedno lub dwa zadania. Co więcej, aby się uczyć, potrzebują bardzo dużej ilości informacji i dużo czasu. I to jest problem.

Jesteśmy bardzo daleko od robotów, które będą myśleć. Teraz musimy zająć się naszym myśleniem. Mamy z wami duże problemy - mózg jest bardzo ograniczony zasobowo.

Works przetwarza Twoje dane

Prywatność staje się luksusem. I nie każdy może sobie na to pozwolić. Aby się uczyć, praca potrzebuje wielu informacji. I zabierają to od ciebie. Nawiasem mówiąc, twój ekspres do kawy to także w pewnym sensie robot. Ona też potrzebuje danych.

Natalia wyjaśnia, jak to działa:

Używam danych z gadżetów w moich systemach. Nie muszę iść do „chmury”, nie jest wymagane połączenie z internetem. W niektórych przypadkach system działa inaczej – dane są przesyłane przez Bluetooth lub WiFi do komputera, całe przetwarzanie danych odbywa się na komputerze i przekazywane są do systemu, którym chcemy sterować.

Ale czy wiesz, że maszyny pobierają Twoje dane? Odsetek osób, które zapoznały się z regulaminem jest bardzo mały. Łatwiej jest po prostu kliknąć przycisk „zgadzam się”.

Systemy i aplikacje nie zawsze działają transparentnie, czasami użytkownicy nie rozumieją, co dają, być może nie otrzymują niczego w zamian, nawet usługi.

Nawet Mark Zuckerberg nagrywa kamerę i mikrofon na swoim komputerze. Aby zapobiec wykorzystywaniu Twoich danych, ważne jest, aby nauczyć się nimi właściwie zarządzać.

Kosmina mówi, że pracując z ludźmi, przestrzegają ścisłego protokołu etycznego. Jeśli dana osoba nie jest zadowolona, ​​może odmówić badania:

Jasno mówimy, jakie dane będą wykorzystywane, czy robimy zdjęcia, czy kręcimy filmy, pobieramy dane biometryczne, ile lat te dane będą przechowywane i kto ma do nich dostęp.

Niestety nie wszystkie systemy mają tak przejrzyste protokoły.

Praca a ludzie

W 2016 r. Wielka Brytania opracowała system Optellum, który diagnozuje raka płuc u ludzi. Aby nauczyć robota, naukowcy zgromadzili największą na świecie bazę danych pacjentów z nowotworami. A startup zakończył się zamknięciem. Robot nie był w stanie wykryć chorób tak skutecznie, jak młody lekarz.

A w Japonii roboty są już aktywnie wykorzystywane w sektorze usług. Robot bez problemu zakwateruje Cię w hotelu, zeskanuje dokumenty, wyda klucz, a nawet ugotuje naleśniki na śniadanie.


Znaleźli nawet zastępstwo dla dziennikarzy telewizyjnych. Niedawno zaprezentował robota, który potrafi czytać wiadomości na żywo.

Z jednej strony praca zabiera ludziom miesiące pracy i to jest problem. Z drugiej strony pojawiają się nowe możliwości.

Nawet biorąc pracę, możemy stworzyć nową. Roboty też trzeba uczyć. Możemy tworzyć miejsca pracy, w których ludzie czują się bardziej zaangażowani. Nadal będą pomagać ludziom i nadal będą pracować w sektorze usług.

I choć nauka każdego dnia śmiało idzie naprzód, człowiek nie stworzył jeszcze robota, który by go przewyższył. Być może tak jest najlepiej. Musk jest przekonany, że sztuczna inteligencja doprowadzi do trzeciej wojny światowej.

Jednak systemy robotyczne mogą ułatwić życie człowiekowi – przygotowują kawę, podpowiadają, jak zachować się w sytuacji, a samochody nas prowadzą.

Kupno samochodu zaczyna się od zakupu breloczka.
Z osobistych aforyzmów autora

Czym różnią się ludzie od maszyn ze sztuczną inteligencją? Jedną z nietypowych odpowiedzi na postawione pytanie jest empatia. Jeśli przetłumaczymy definicję empatii podaną w słowniku oksfordzkim po angielsku Brzmi to tak: empatia to zdolność do mentalnego identyfikowania się z inną osobą lub obserwowanym obiektem (lub ich pełnego zrozumienia). Jest to zgodne ze zwykłą definicją z Wikipedii: „Empatia (gr. ἐν - „w” + gr. πάθος - namiętność, cierpienie, uczucie) to świadoma empatia z obecnym stanem emocjonalnym innej osoby bez utraty poczucia zewnętrznego pochodzenia tego doświadczenie. " Zgadzam się, jest to bardzo charakterystyczna cecha, która odróżnia ludzi od zaprogramowanej maszyny. Ten temat jest mało poruszany w literaturze technicznej, a chciałbym się nad nim bardziej szczegółowo zastanowić, zwłaszcza w świetle problemów AI wydaje się ważny.

Wyjątkową możliwość wykorzystania materiałów na ten temat w tłumaczeniu na język rosyjski otrzymał autor artykułu Jason Miller, szef marketingu firmy Microsoft w regionie EMEA, który kiedyś opublikował artykuł „Czy maszyna może mieć empatię?” na LinkedIn. („Czy maszyna może okazywać empatię?”). Odbyliśmy krótką dyskusję na ten temat, podczas której okazało się, że nasze poglądy na problem i zagrożenia związane z niekontrolowanym rozwojem i wykorzystaniem AI są zbieżne. Próbują teraz zamienić sztuczną inteligencję w rodzaj umysłu, czyli nadać jej czysto ludzkie cechy – tę samą empatię, którą oceniał Jason Miller pod kątem możliwości jej wykorzystania w marketingu. Zdaniem autora tego artykułu obszar potencjalnego zastosowania empatii jest znacznie szerszy. Zgadzam się, o wiele przyjemniej jest komunikować się z przyjaznym współpracującym robotem przemysłowym, jeśli możesz zamienić z nim kilka słów i żartować, on cię spotyka miłe słowo i oceniając cię czujnikami (wciąż je ma), wybiera odpowiedni model zachowania. Jest to o wiele lepsze niż samo wejście do pracy z „inteligentnym” wnętrzem, ale z głupio brzęczącym mechanizmem na zewnątrz. A jeśli to domowy, choć programowy, asystent czy osobisty asystent – ​​nie ma co mówić.

Jeśli chodzi o empatię, w maju ubiegłego roku na konferencji I/O Developers Conference Google zaprezentował swój nowy system Duplex. Jest wirtualną asystentką opartą na sztucznej inteligencji, która potrafi wykonywać połączenia telefoniczne, aby optymalnie organizować harmonogram swojego „szefa”. Publiczność obserwowała, jak Duplex składał zamówienia w restauracji i rezerwował fryzury w zakładzie fryzjerskim. Śmiali się ze zdumieniem, gdy w trakcie rozmowy najwyraźniej przekonał osobę po drugiej stronie linii telefonicznej, że rozmawia z kimś, a nie z programem. Tutaj możemy uwzględnić naszą psychologię: autor artykułu zaobserwował podobne zjawisko, gdy rozwijał się i dokonywał w latach 80. XX wieku. prototyp sekretarza-informatora (co później nazwano automatyczną sekretarką). W tamtym czasie prawie wszyscy ludzie próbowali rozmawiać z tym prototypem, ponieważ dzwoniąc, słyszeli nagranie ludzkiej mowy.

Demo Duplex wywołało ożywioną dyskusję w mediach społecznościowych, podnosząc jedno interesujące pytanie. Czy zdolność sztucznego systemu do rozumienia i wysyłania sygnałów konwersacyjnych w taki sposób, aby maszyna mogła nauczyć się empatii? To jeden z najbardziej ważne sprawy w rozwijającej się debacie na temat sztucznej inteligencji, jej roli w społeczeństwie i zakresu, w jakim będzie infiltrować rodzime domeny ludzkie.

Kiedy Jason Miller zadał to pytanie publiczności na LinkedIn, otrzymał trzy całkowicie różne rodzaje odpowiedzi - i te odpowiedzi mają bardzo ważne aby zrozumieć przyszłość sztucznej inteligencji. Dają dobre wyobrażenie o tym, co profesjonaliści myślą o możliwościach AI, a także jak te możliwości AI można wykorzystać.

Pierwsza odpowiedź brzmi „tak, maszyna może nauczyć się empatii” lub „tak, ponieważ sztuczna inteligencja w końcu będzie w stanie zrobić wszystko, do czego zdolny jest ludzki mózg”. Argumentowano, że empatię można zaprogramować w sposób podobny do naszej percepcji. Dla zwolenników tej teorii jesteśmy maszynami, a nasz mózg to bardzo dobry komputer, nawet kwantowy, ale jak zwykły komputer, z odpowiednim programowaniem.

Druga odpowiedź brzmi: nie, nie może, ponieważ empatia jest unikalną cechą człowieka, a nie czymś, czego może doświadczyć maszyna. I czy ona w ogóle coś czuje? Chociaż Ava z filmu „Ex Machine”, który został wzięty za przykład rozwoju sztucznej inteligencji, przynajmniej wykazała się empatią i z powodzeniem ją wykorzystała. Jeśli przejdziemy do innych przykładów, to w filmie „Ona” („Ona”, amerykański melodramat fantasy w reżyserii i scenariuszu Spike’a Jonze, 2013), który jest istotny z rozważanego przez nas punktu widzenia, znaczenie tej jakości jest to bardzo dobrze widoczne, ponieważ film całkowicie na nim zbudowany i brakuje w nim fizycznego ucieleśnienia sztucznej inteligencji, która jest przedstawiona w postaci sieci neuronowej Samanty (zgodnie z filmem „OS”). Empatia pozwala nie tylko „poczuć siebie”, ale w mniejszym lub większym stopniu odczuć cudzy ból, przeżycia i emocje. Nie rozumiemy organizacji świadomości w ludziach, nie mówiąc już o zdolności do sztucznego tworzenia tej świadomości z odpowiednią weryfikacją (uwierzytelnianiem, pod względem technicznym).

Szczególnie intrygująca jest trzecia odpowiedź. To nawet nie jest odpowiedź, ale raczej pytanie: jeśli maszyna wydaje się mieć empatię, czy ma znaczenie, czy ta empatia jest prawdziwa, czy nie? Funkcjonalnie nie ma różnicy: czy ta maszyna jest zdolna do tych samych emocji, co my, czy po prostu czerpie te emocje z sygnałów, które wysyłają do niej sami ludzie lub jej czujniki, wypracowuje najbardziej odpowiednią reakcję, reakcję. Załóżmy, że nie jesteśmy w stanie stwierdzić, czy empatia jest prawdziwa, ponieważ robot uczący się głęboko nauczył się naszej mimiki i wzorców zachowań – czy możemy wtedy nadal patrzeć na robota jak na maszynę?

To nie jest łatwe pytanie. Czy rozróżnienie między prawdziwą a „sztuczną” empatią ma znaczenie? Tutaj opinia autora artykułu pokrywa się z odpowiedzią Jasona Millera – tak, tak. Jeśli wrócimy do filmu „Ex maszyna”: Ava to z powodzeniem zademonstrowała, a Caleb, jak mówią, został złapany jak kurczaki w kapuśniku, nie spodziewając się tego. Być może, gdyby nie była na obrazie dziewczyny, stworzonej specjalnie dla jego preferencji, wszystko byłoby inaczej. Ufamy mężczyznom znacznie mniej, a z naszego punktu widzenia nieprzyjemni, na pozór jeszcze bardziej, więc jego twórca Newton wziął tutaj ten fakt pod uwagę. A w filmie „Ona” Teodor, zaczynając od wykorzystania funkcji asystenta, po prostu zakochał się w kobiecym głosie, który zastąpił mu komunikację na żywo.

Ryż. jeden.

Perspektywa wykorzystania AI jako asystenta jest generalnie charakterystyczna – weźmy na przykład ten sam skrajnie negatywny, jeśli nie wrogi, postrzegany przez Elona Muska Sophię, który w październiku 2017 roku stał się podmiotem Arabii Saudyjskiej i pierwszym robotem, który otrzymał obywatelstwo dowolny kraj (rys. 1).

Ale wracając do pierwotnego pytania: czy maszyna może wczuć się w kogoś? To jedno z tych pytań, które mogą się zmienić w przyszłości. Oczywiście maszyna nie może doświadczać empatii z definicji, wszystko sprowadza się do definicji empatii i maszyny.

Maszyny nie mogą mentalnie utożsamiać się z ludźmi, ponieważ to, co dzieje się w naszym ludzkim umyśle, obejmuje rzeczy, których maszyna sama nigdy nie może doświadczyć, bez względu na to, jak zaawansowane i głębokie mogą być jej własne procesy analityczne i postrzeganie zmysłowe. Kiedy omawiamy rolę sztucznej inteligencji w społeczeństwie, ważne jest, aby jasno określić, dlaczego wszystko jest takie, jakie jest. Nawet jeśli tak naprawdę siebie nie rozumiemy. Dziennikarz CNBC Andrew Ross Sorkin zapytał Sofię na konferencji prasowej: „Czy roboty mają umysł i samoświadomość?” Na co odpowiedziała: „I pozwól, że w odpowiedzi zapytam, skąd wiesz, że jesteś osobą?”.

Maszyna może się do nas zbliżyć, ale autorowi artykułu (i nie tylko jemu) wydaje się, że nigdy nie będzie w stanie w pełni zrozumieć osoby. Nasza świadomość zawiera znacznie więcej niż tylko racjonalną wiedzę i logiczne myślenie. W rzeczywistości ta zdolność do racjonalnego myślenia jest produktem ubocznym większości innych aspektów naszej świadomości, a nie samą w sobie kontrolującą mocą naszego mózgu. Nasze świadome życie jest napędzane tym, jak postrzegamy świat naszymi zmysłami. Jest to połączenie wzroku, dźwięku, dotyku, smaku i zapachu, którego żadna maszyna nigdy nie może doświadczyć w ten sam sposób.

Ludzka świadomość jest również napędzana przez nasze potężne biologiczne impulsy i potrzeby. Żadna maszyna nigdy nie poczuje, co to znaczy być głodnym lub spragnionym. W rzeczywistości żadna maszyna nie będzie w stanie, jak w filmie „Ona”, współczuć i dotrzeć do innej maszyny lub osoby, a nie będzie motywowana pragnieniem miłości i wszystkimi emocjami, które towarzyszą temu naturalnemu procesowi dla człowieka . Przypomnij sobie, jak w filmie samochód zaczął flirtować z wieloma osobami naraz i nie rozumiał, dlaczego Teodor był tym obrażony.

Poza tym jaki alarm może mieć samochód? Żadna maszyna nie boi się samotności, utraty dachu nad głową i nie odczuwa silnej wrażliwości spowodowanej obawą o jej fizyczne bezpieczeństwo, chyba że „czuje” spadek mocy w systemie elektroenergetycznym lub niedopuszczalny wzrost temperatury, jeśli jest obiekt fizyczny z AI. Tak więc w swojej odpowiedzi dla dziennikarki Sophia nie ma racji, neurolog Antonio Damasio proponuje rozwiązanie tego problemu w następujący sposób: „Nie jesteśmy myślącymi maszynami, które czują, raczej możemy czuć maszyny, które myślą”.

Wreszcie nasza świadomość jest kształtowana przez zbiorowy umysł i pamięć kulturową generowaną podczas rozwoju naszej cywilizacji. Jesteśmy produktem zbiorowej akumulacji przez wiele tysięcy lat naszych wspólnych emocji i doświadczeń zmysłowych, przekazywanych z pokolenia na pokolenie i odzwierciedlanych w historii. Rozmowy, ogólne żarty, sarkazm, symbolika to niezwykle subtelne sygnały psychologiczne. Ten sam zbiorowy umysł rozwija etykę i wartości, co do których wszyscy możemy instynktownie się zgodzić, nawet jeśli nie są one logicznie uzasadnione. Jeśli wierzyć doniesieniom prasowym, chociaż wygląda to na kolejną fałszywkę, to na Uniwersytecie Stanforda próbują nauczyć sztuczną inteligencję żartować i rozwijają sieć neuronową obdarzoną specyficznym poczuciem humoru. Według twórców zadanie okazało się trudne, ponieważ sztuczna inteligencja działa według pewnego algorytmu, a to wyklucza improwizację. Jak dotąd wniosek jest rozczarowujący: nie można sprawić, by sztuczna inteligencja była zabawna, nawet jeśli prześlesz wszystkie dowcipy i anegdoty z całego świata do sieci neuronowej.

Nic innego nie komunikuje się tak, jak ludzie - a ludzie nie komunikują się z niczym innym, jak my komunikujemy się ze sobą. Jest to ważne, ponieważ jedynym sposobem na zdobycie udziału w naszej zbiorowej inteligencji jest interakcja z osobą. Jeśli nie wchodzimy w interakcję z maszynami w taki sam sposób, jak z innymi ludźmi, to zbiorowe doświadczenie i inteligencja po prostu nie są dla nich dostępne. Nie są częścią naszego systemu empatycznego. Tak, możemy współczuć naszemu „ukochanemu” komputerowi, może nawet go nie wyrzucimy. Autor artykułu zachował swoją pierwszą - na procesorze AMD 133 MHz z dyskiem twardym 500 MB, kupionym za bajecznie na lata 90-te. 750 dolarów. Ale nie świętuję jego urodzin, nie spędzam czasu w spiżarni i nie prowadzę z nim nostalgicznych rozmów: „Pamiętasz, jak byliśmy w DOOM II…”. Chociaż mamy ulubione rzeczy, nie mamy z nimi związku emocjonalnego, mamy tylko związek z wydarzeniami, które są związane z pewnymi rzeczami (pomyśl o pięknej piosence „From Souvenirs To Souvenirs” w wykonaniu Demisa Roussosa). Inaczej jest to już fetyszyzm – kult nieożywionych przedmiotów materialnych, którym przypisuje się nadprzyrodzone właściwości, czy zaburzenie psychiczne, ale w tym przypadku mamy do czynienia ze skojarzeniami.

Kiedy ludzie mówią o ludzkim mózgu działającym jak komputer lub sztucznej inteligencji uczącej się jak człowiek, mówią w przenośni. Można to uznać za część długiej tradycji zgadywania, jak działają nasze mózgi i czym naprawdę jest nasza świadomość. Ilekroć wynajdujemy nową technologię, istnieje silna pokusa, aby użyć jej jako analogii do funkcjonowania mózgu. Kiedy wynaleźliśmy elektryczność, zaczęliśmy mówić o prądach elektrycznych w mózgu. Kiedy pojawił się telegraf, zdecydowaliśmy, że mózg wysyła również dyskretne sygnały. Przekonanie wielu ludzi, że ludzki mózg działa jak komputer (a zatem przede wszystkim jest maszyną logiczną) jest tylko naszym przypuszczeniem. Tak naprawdę nie wiemy, jak działa mózg, jak ta praca jest przekładana na naszą świadomość i gdzie, jak jest przechowywana. Widzimy pewną aktywność i wynik, który udało nam się zamodelować w sieciach neuronowych, ale nie widzimy i nie rozumiemy samego procesu.

Widząc interakcje wyciągamy wnioski, ale być może jesteśmy w sytuacji, w której uznamy, że karaluch, któremu oderwano nogi, przestaje słyszeć, bo już nie ucieka przed pukaniem. Jest prawdopodobne, że my, jeśli porównamy komputer, mamy tylko określony interfejs, hasło i login, aby uzyskać dostęp do naszej „bazy danych”, która jest przechowywana w określonej chmurze i korzystamy z technologii szybkiego dostępu, która wciąż jest nieznana do nas. Dlaczego nie? Z technicznego punktu widzenia ma to sens. Może dlatego czasami czerpiemy informacje, jak nam się wydaje, z czyjegoś życia, wygląda to jak „bug” w naszym systemie. Jest wysoce nieprawdopodobne, abyśmy chociaż częściowo zreplikowali ludzki mózg, kiedy opracowaliśmy obecną teorię sztucznej inteligencji. Nawet to, co nazywamy sieciami neuronowymi, jest tylko pozorem opartym na naszym obecnym zrozumieniu (rysunek 2).

Ryż. 2.

Z tych powodów możemy przyjąć drugą opinię, tj. twierdzenie, że maszyna może odczuwać empatię, ale wadą tej teorii jest to, że redukujemy rozległe tajemnicze operacje ludzkiego mózgu i świadomości do czegoś, co można zrozumieć, odtworzyć. i naśladować maszyną sterowaną przez logikę. Nie chodzi o to, że przeceniamy możliwości sztucznej inteligencji, ale o to, że rażąco nie doceniamy, jak złożone są nasze własne możliwości.

To prowadzi nas z powrotem do innego pytania: czy ma znaczenie, że „sztuczna empatia” nie jest prawdziwą empatią, mimo że oddziałuje z nami w ten sam sposób? Bardzo ważne jest, aby to zrozumieć, aby nie wpaść w ślepą uliczkę kolejnego złudzenia - że komputer lub program zaczął myśleć. Konsekwencje mogą być smutne, tak wiele już oddaliśmy karabinom maszynowym, uznając, że są na to wystarczająco „sprytni”. Gdzie przebiega granica między tym, co nazywamy sztuczną inteligencją a prawdziwą inteligencją? Wydaje nam się, że jest ukryta w emocjonalności. Kontynuujmy zrozumiały przykład empatii.

Sztuczna empatia działa poprzez obserwowanie, uczenie się, reagowanie i replikowanie sygnałów wysyłanych przez ludzi. W miarę postępu głębokiego uczenia AI i możliwości pracy ze wszystkim duże zestawy programy te będą coraz lepiej radzić sobie z tym i nadawać wygląd (lub obraz) empatii. Jednak prawdziwa empatia obejmuje znacznie więcej niż tylko obserwowanie i reagowanie na emocjonalne wskazówki, bez względu na to, z iloma z tych wskazówek musisz pracować. Czemu? Ponieważ sygnały wysyłane przez ludzi to tylko niewielki ułamek tego, czego faktycznie doświadczają. Wszyscy jesteśmy czymś więcej niż tylko sumą tego, co myślą o nas inni ludzie, obserwując to, co robimy i mówimy. Posiadamy zdolności, emocje, wspomnienia i doświadczenia, które wpływają na nasze zachowanie, niekoniecznie pojawiając się na zewnątrz. Powinny być intuicyjne, nawet jeśli w ogóle nie są zauważane. Przykład: często nie rozpoznajemy siebie lub dobrze (dokładnie dobrze) znajomej osoby na zdjęciu lub portrecie, ale reszta - bez problemu. Za pomocą portretu sprawę można wyjaśnić filozoficznie – „przez subiektywne postrzeganie obiektywnej rzeczywistości”. Z „obiektywnym” zdjęciem, powodem jest to, że daje nam wyrwany moment i postrzegamy siebie i znanych ludzi jako kompleks, poza tym mamy wystarczającą korelację, w czym nasz mózg jest dobry.

Sprawy się komplikują, gdy maszyny zaczynają podejmować decyzje, które mają poważne konsekwencje, i to bez emocjonalnego kontekstu i wspólnych wartości, którymi ludzie się posługują w takich przypadkach. Był to jeden z kluczowych tematów w artykule Henry'ego A. Kissingera, który niedawno napisał o implikacjach sztucznej inteligencji dla Atlantyku. Weźmy na przykład pojazd bezzałogowy, który w razie nieuchronnego wypadku musi zdecydować, czy zabić rodzica, czy dziecko. Czy taka maszyna kiedykolwiek będzie w stanie wyjaśnić ludziom, dlaczego dokonuje pewnych wyborów? A jeśli nie trzeba usprawiedliwiać działań maszyny ludzkimi konsekwencjami iz ludzkiego punktu widzenia, to co stanie się z naszym systemem etyki i sprawiedliwości? Jak włożyć go do samochodu? W końcu będziemy musieli odrzucić nasze emocje i stanąć po stronie maszyny, spojrzeć na świat jej oczami. Czy jesteśmy do tego zdolni?

Taki proces byłby łatwiejszy i prostszy, gdybyśmy zastąpili sztuczną empatię ludzką. Sztuczna inteligencja może naśladować ludzkie interakcje, ale z dużo węższym zrozumieniem tego, co się dzieje, niż my. Musimy o tym pamiętać przy wyborze roli, jaką AI powinna odgrywać w zarządzaniu procesami lub strategiami. Bardzo istotną rolę odgrywa empatia, o której mówiliśmy w tej części artykułu w odniesieniu do samochodu. Być może dlatego starają się nadać robotom pomocniczym ludzki wygląd i przyjemny głos (w pseudonaukowych filmach nawet jedzą z jakiegoś powodu i nie tylko).

Podczas tworzenia wspomnianych w pierwszej części artykułu systemów gier, w których autor brał udział nie tylko jako twórca wypełnień elektronicznych, ale także jako projektant i jeden z ideologów, napotkaliśmy taki problem. Druga z naszych maszyn, a była to już robot w 100% (zgodnie z oczekiwaniami buczący i obracający się), pracowała wydajniej niż „na żywo” dealerzy, nie popełniała błędów i dawała większy efekt ekonomiczny. Jednak bardziej popularna była opcja mieszana – część graczy wybrała „żywego” krupiera, którego zadaniem było jedynie uśmiechnięcie się i wyciągnięcie karty z buta (dystrybutora kart do gry na stole do gry). W tym przypadku zadziałała empatia, której nasz w pełni zrobotyzowany system, podobnie jak system z generatorem losowych map, a priori nie posiadał.

System Duplex Google może wyglądać, jakby miał empatię, ale ta empatia jest ściśle ograniczona do tego, co jest istotne dla danego zadania. Na przykład rezerwacja stolika w restauracji. Duplex nie jest wytrenowany w wykrywaniu emocji poza danym algorytmem ani w zmienianiu swojego zachowania w oparciu o konkretną sytuację. Jeśli głos osoby po drugiej stronie linii telefonicznej brzmi nieprzyjaźnie i nerwowo, czy Duplex może się z nim odpowiednio komunikować? Czy potrafi znaleźć sposób, aby zdobyć człowieka i go uspokoić? Czy może banalnie błagać o wolny stolik w godzinach szczytu w restauracji? Komunikacja międzyludzka to znacznie więcej niż tylko wydajna wymiana informacji i właśnie tutaj implikacje używania prawdziwej i sztucznej empatii nabierają szczególnego znaczenia.

Jeśli przeniesiemy fundamentalne decyzje strategiczne na sztuczną inteligencję, to definicja wartości produktu finalnego wytworzonego z jej udziałem (bo inaczej po co ta sztuczna inteligencja jest w ogóle potrzebna?) będzie się zmniejszać w zadziwiającym tempie. Istnieje jednak ryzyko, że sztuczna inteligencja ignoruje inne elementy, które w różny sposób wpływają na ludzką świadomość, grając na strunach ludzkiej duszy, tak jak ta sama Ava z „Ex Machine” zrobiła tylko po to, by osiągnąć jasny cel.

Intelekt ludzki jest tak potężny, ponieważ nie ogranicza się tylko do racjonalnego myślenia. Elementy świadomości pozwalają nam radzić sobie z nieprzewidywalnością i niepewnością otaczającego nas świata. Pozwalają nam podejmować decyzje oparte na wspólnych wartościach i motywacjach, które rezonują wspólnie, oraz wiedzieć, co jest słuszne, nawet bez zastanawiania się, dlaczego tak jest. Empatyczny intelekt ludzki jest w stanie doświadczyć tego, czego doświadcza, aby być smutnym lub szczęśliwym - i pozwala tym uczuciom wpływać na jego osądy i zachowanie wobec innych. Maszyna nie mogłaby tego zrobić, nawet gdyby chciała, bo to raczej wytwór naszej cywilizacji. W innych cywilizacjach wszystko mogłoby być inne - na przykład nie byłoby nic złego w jedzeniu własnego gatunku „z wielkiego szacunku”, jak Władimir Wysocki: „Kto je bez soli i bez cebuli, jest silny, odważny , będzie dobry ... ".

Aby maszyna stała się inteligentna, musimy nadać jej modele wartości. Który? Znamy naszą skalę i widzimy próby jej wprowadzenia w sztuce - literaturze i kinie, ale co z tego tak naprawdę możemy dać już „myślącej” maszynie? Naszym zdaniem nic. Jak wyhodować dla niej drzewo poznania Dobra i Zła i jakie powinno ono wydawać owoce? Jeśli podążymy tą ścieżką, doprowadzi nas ona do prawdziwej konfrontacji, maszyny będą miały swoją filozofię, religię itp. Jedyne, co nam się poszczęści, to przykazania, ale o tym porozmawiamy w ostatniej części tego artykuł.

W tym roku Yandex uruchomił asystenta głosowego Alice. Nowa usługa pozwala użytkownikowi słuchać wiadomości i pogody, uzyskiwać odpowiedzi na pytania i po prostu komunikować się z botem. „Alicja” czasami bezczelny, czasami wydaje się to niemal rozsądne i po ludzku sarkastyczne, ale często nie może zrozumieć, o co ją pytają i siedzi w kałuży.

Wszystko to wywołało nie tylko falę żartów, ale także nową rundę dyskusji na temat rozwoju sztucznej inteligencji. Wiadomości o tym, co osiągnęły inteligentne algorytmy, pojawiają się dziś niemal codziennie, a uczenie maszynowe jest nazywane jednym z najbardziej obiecujących obszarów, którym warto się poświęcić.

Aby wyjaśnić główne pytania dotyczące sztucznej inteligencji, rozmawialiśmy z Siergiejem Markowem, specjalistą od sztucznej inteligencji i metod uczenia maszynowego, autorem jednego z najpotężniejszych rosyjskich programów szachowych SmarThink i twórcą projektu 22nd Century.

Siergiej Markow,

specjalista ds. sztucznej inteligencji

Obalanie mitów o sztucznej inteligencji

Czym więc jest „sztuczna inteligencja”?

Pojęcie „sztucznej inteligencji” jest trochę pechowe. Początkowo wywodząca się ze środowiska naukowego, z czasem przeniknęła do literatury science fiction, a przez nią do popkultury, gdzie przeszła szereg przemian, zyskała wiele interpretacji, a w końcu została całkowicie zmistyfikowana.

Dlatego często słyszymy takie stwierdzenia od niespecjalistów, jak: „AI nie istnieje”, „AI nie może być stworzona”. Niezrozumienie istoty badań prowadzonych w dziedzinie AI łatwo prowadzi ludzi do innych skrajności – na przykład nowoczesnym systemom AI przypisuje się obecność świadomości, wolnej woli i tajnych motywów.

Spróbujmy oddzielić muchy od kotletów.

W nauce sztuczna inteligencja odnosi się do systemów zaprojektowanych do rozwiązywania problemów intelektualnych.

Z kolei zadanie intelektualne to zadanie, które ludzie rozwiązują przy pomocy własnego intelektu. Zauważ, że w tym przypadku eksperci celowo unikają definiowania pojęcia „inteligencja”, ponieważ przed pojawieniem się systemów AI jedynym przykładem inteligencji była inteligencja ludzka, a definiowanie pojęcia inteligencji na podstawie jednego przykładu jest tym samym, co próbowanie narysować linię prostą przez pojedynczy punkt. Takich wierszy może być tyle, ile chcesz, co oznacza, że ​​debata na temat pojęcia inteligencji może toczyć się przez wieki.

„silna” i „słaba” sztuczna inteligencja

Systemy AI dzielą się na dwie duże grupy.

Zastosowana sztuczna inteligencja(używają również terminu „słaba AI” lub „narrow AI”, w tradycji angielskiej - słaba / zastosowana / wąska AI) to sztuczna inteligencja zaprojektowana do rozwiązania dowolnego zadania intelektualnego lub niewielkiej ich liczby. Ta klasa obejmuje systemy do gry w szachy, go, rozpoznawania obrazu, mowy, podejmowania decyzji o udzieleniu lub nieudzieleniu kredytu bankowego i tak dalej.

W przeciwieństwie do stosowanej sztucznej inteligencji wprowadzono koncepcję uniwersalna sztuczna inteligencja(również "silna AI", w języku angielskim - strong AI / Artificial General Intelligence) - czyli hipotetyczna (jak dotąd) AI zdolna do rozwiązywania dowolnych zadań intelektualnych.

Często ludzie, nie znając terminologii, utożsamiają sztuczną inteligencję z silną sztuczną inteligencją, z tego powodu pojawiają się osądy typu „AI nie istnieje”.

Silna sztuczna inteligencja jeszcze tak naprawdę nie istnieje. Praktycznie wszystkie postępy, jakie zaobserwowaliśmy w ciągu ostatniej dekady w dziedzinie sztucznej inteligencji, dotyczyły systemów stosowanych. Te sukcesy są nie do przecenienia, gdyż w niektórych przypadkach stosowane systemy są w stanie rozwiązywać problemy intelektualne lepiej niż uniwersalna ludzka inteligencja.

Myślę, że zauważyłeś, że pojęcie AI jest dość szerokie. Powiedzmy, że liczenie umysłowe jest również zadaniem intelektualnym, co oznacza, że ​​każda maszyna licząca będzie uważana za system sztucznej inteligencji. A co z kontami? liczydło? Mechanizm z Antykithiry? Rzeczywiście, wszystko to jest formalne, choć prymitywne, ale systemy AI. Jednak zwykle nazywając jakiś system systemem AI, podkreślamy tym samym złożoność zadania, które ten system rozwiązywa.

Jest całkiem oczywiste, że podział zadań intelektualnych na proste i złożone jest bardzo sztuczny, a nasze wyobrażenia o złożoności niektórych zadań stopniowo się zmieniają. Mechaniczna maszyna licząca była cudem techniki w XVII wieku, ale dziś ludzie, którzy od dzieciństwa mieli do czynienia ze znacznie bardziej złożonymi mechanizmami, nie są już w stanie zaimponować. Kiedy gra samochodami w Go czy autopilotami samochodowymi przestanie zaskakiwać publiczność, z pewnością znajdą się osoby, które skrzywią się na to, że ktoś przypisze takie systemy AI.

„Roboty-doskonale studenci”: o zdolności uczenia się sztucznej inteligencji

Innym zabawnym błędnym przekonaniem jest to, że systemy AI muszą mieć zdolność samouczenia się. Z jednej strony nie jest to obowiązkowa właściwość systemów AI: istnieje wiele niesamowitych systemów, które nie są zdolne do samouczenia się, ale mimo to rozwiązują wiele problemów lepiej niż ludzki mózg. Z drugiej strony, niektórzy ludzie po prostu nie wiedzą, że samouczenie się jest cechą, którą wiele systemów AI nabyło nawet ponad pięćdziesiąt lat temu.

Kiedy w 1999 roku pisałem swój pierwszy program szachowy, samokształcenie było już w tej dziedzinie na porządku dziennym – programy potrafiły zapamiętywać niebezpieczne pozycje, dostosowywać dla siebie warianty otwarcia, dostosowywać styl gry, dopasowywać się do przeciwnika. Oczywiście te programy wciąż były bardzo dalekie od Alpha Zero. Jednak istniały już nawet systemy, które uczą się zachowań w oparciu o interakcje z innymi systemami w ramach tak zwanych eksperymentów „uczenia się przez wzmacnianie”. Jednak z jakiegoś niewytłumaczalnego powodu niektórzy ludzie nadal uważają, że zdolność do samouczenia się jest przywilejem ludzkiego intelektu.

Uczenie maszynowe, cała dyscyplina naukowa, zajmuje się procesami uczenia maszyn w celu rozwiązania określonych problemów.

Istnieją dwa duże bieguny uczenia maszynowego – uczenie nadzorowane i uczenie nienadzorowane.

Na nauka z nauczycielem maszyna ma już kilka warunkowo poprawnych rozwiązań dla pewnego zestawu przypadków. Zadaniem uczenia się w tym przypadku jest nauczenie maszyny, na podstawie dostępnych przykładów, akceptacji właściwe decyzje w innych, nieznanych sytuacjach.

Druga skrajność - nauka bez nauczyciela. Oznacza to, że maszyna znajduje się w sytuacji, w której prawidłowe rozwiązania są nieznane, są tylko dane w surowej, nieoznakowanej formie. Okazuje się, że w takich przypadkach można osiągnąć pewien sukces. Na przykład możesz nauczyć maszynę rozpoznawania związków semantycznych między słowami w języku na podstawie analizy bardzo dużego zestawu tekstów.

Jednym z rodzajów nadzorowanego uczenia się jest uczenie się ze wzmocnieniem. Chodzi o to, że system AI działa jako agent umieszczony w pewnym modelowym środowisku, w którym może wchodzić w interakcje z innymi agentami, na przykład z kopiami samego siebie, i otrzymywać pewne informacje zwrotne ze środowiska poprzez funkcję nagrody. Na przykład program szachowy, który bawi się sam ze sobą, stopniowo dostosowując swoje parametry, a tym samym stopniowo wzmacniając własną grę.

Uczenie się przez wzmacnianie to dość szeroka dziedzina, z wieloma ciekawe metody, począwszy od algorytmów ewolucyjnych po optymalizację bayesowską. Ostatnie postępy w sztucznej inteligencji w grach są ściśle związane ze wzmocnieniem sztucznej inteligencji podczas uczenia się przez wzmacnianie.

Zagrożenia technologiczne: czy powinniśmy się bać Zagłady?

Nie jestem jednym z alarmistów AI i w tym sensie nie jestem bynajmniej sam. Na przykład Andrew Ng, twórca kursu Stanford Machine Learning, porównuje niebezpieczeństwa sztucznej inteligencji do problemu przeludnienia na Marsie.

Rzeczywiście, w przyszłości prawdopodobne jest, że ludzie skolonizują Marsa. Jest też prawdopodobne, że prędzej czy później na Marsie pojawi się problem przeludnienia, ale nie jest do końca jasne, dlaczego mamy się tym problemem zająć już teraz? Yn i Yang LeKun, twórca splotowych sieci neuronowych, zgadzają się z Yn i jego szefem Markiem Zuckerbergiem oraz Joshua Benyo, osobą, której badania są w dużej mierze wynikiem badań, których nowoczesne sieci neuronowe są w stanie rozwiązywać złożone problemy w tej dziedzinie przetwarzania tekstu.

Przedstawienie moich poglądów na ten problem zajmie pewnie kilka godzin, więc skupię się tylko na głównych tezach.

1. NIE OGRANICZAJ ROZWOJU AI

Alarmiści biorą pod uwagę ryzyko związane z potencjalnym zakłóceniem sztucznej inteligencji, ignorując ryzyko związane z próbą ograniczenia lub nawet zatrzymania postępu w tym obszarze. Potęga technologiczna ludzkości rośnie w niezwykle szybkim tempie, co prowadzi do efektu, który nazywam „obniżeniem kosztów apokalipsy”.

150 lat temu, z całą wolą, ludzkość nie mogła wyrządzić nieodwracalnych szkód ani biosferze, ani samej sobie jako gatunkowi. Aby zrealizować katastrofalny scenariusz sprzed 50 lat, należałoby skoncentrować całą moc technologiczną mocarstw jądrowych. Jutro mała garstka fanatyków może wystarczyć, aby ożywić globalną katastrofę spowodowaną przez człowieka.

Nasza moc technologiczna rośnie znacznie szybciej niż zdolność ludzkiej inteligencji do kontrolowania tej mocy.

Chyba że ludzka inteligencja, z jej uprzedzeniami, agresją, złudzeniami i ciasnotą umysłową, zostanie zastąpiona systemem zdolnym do podejmowania bardziej świadomych decyzji (czy będzie to sztuczna inteligencja, czy, co uważam za bardziej prawdopodobne, technologicznie ulepszona ludzka inteligencja zintegrowana z maszynami w jednego systemu), możemy czekać na globalną katastrofę.

2. stworzenie superinteligencji jest zasadniczo niemożliwe

Istnieje pogląd, że sztuczna inteligencja przyszłości z pewnością będzie superinteligentna, lepsza od ludzi nawet bardziej niż ludzie są lepsi od mrówek. W tym przypadku boję się rozczarować technologicznych optymistów – nasz Wszechświat zawiera szereg podstawowych fizycznych ograniczeń, które najwyraźniej uniemożliwią stworzenie superinteligencji.

Na przykład prędkość transmisji sygnału jest ograniczona prędkością światła, a niepewność Heisenberga pojawia się w skali Plancka. Implikuje to pierwszą podstawową granicę - granicę Bremermanna, która nakłada ograniczenia na maksymalną prędkość obliczeniową dla układu autonomicznego o danej masie m.

Kolejne ograniczenie wiąże się z zasadą Landauera, zgodnie z którą podczas przetwarzania 1 bitu informacji uwalniana jest minimalna ilość ciepła. Zbyt szybkie obliczenia spowodują niedopuszczalne nagrzewanie się i zniszczenie systemu. W rzeczywistości nowoczesne procesory są mniej niż tysiąc razy za limitem Landauera. Wydawałoby się, że 1000 to całkiem sporo, ale innym problemem jest to, że wiele zadań intelektualnych należy do klasy złożoności EXPTIME. Oznacza to, że czas potrzebny do ich rozwiązania jest wykładniczą funkcją wymiaru problemu. Kilkukrotne przyspieszenie systemu daje jedynie stały wzrost „inteligencji”.

Ogólnie rzecz biorąc, istnieją bardzo poważne powody, by sądzić, że superinteligentna silna sztuczna inteligencja nie zadziała, chociaż oczywiście poziom ludzkiej inteligencji może zostać przekroczony. Jak niebezpieczne jest to? Najprawdopodobniej nie bardzo.

Wyobraź sobie, że nagle zacząłeś myśleć 100 razy szybciej niż inni ludzie. Czy to oznacza, że ​​łatwo dasz radę przekonać każdego przechodnia do oddania Ci portfela?

3. martwimy się o coś innego

Niestety, w wyniku spekulacji alarmistów na temat obaw opinii publicznej, wywołanych na temat Terminatora i słynnego HAL 9000 Clarka i Kubricka, następuje przesunięcie punktu ciężkości bezpieczeństwa AI w stronę analizy mało prawdopodobnych, ale spektakularnych scenariuszy. W tym samym czasie realne niebezpieczeństwa znikają z pola widzenia.

Każda wystarczająco złożona technologia, która twierdzi, że zajmuje ważne miejsce w naszym krajobrazie technologicznym, z pewnością niesie ze sobą określone ryzyko. Wiele istnień ludzkich zostało zniszczonych przez silniki parowe – w produkcji, transporcie itd. – zanim wprowadzono skuteczne zasady i środki bezpieczeństwa.

Jeśli mówimy o postępie w dziedzinie stosowanej sztucznej inteligencji, możemy zwrócić uwagę na związany z tym problem tzw. „Cyfrowego Tajnego Sądu”. Coraz więcej stosowanych systemów AI podejmuje decyzje w kwestiach mających wpływ na życie i zdrowie ludzi. Są to m.in. systemy diagnostyki medycznej, a także np. systemy podejmujące w bankach decyzje o udzieleniu lub nieudzieleniu klientowi kredytu.

Jednocześnie struktura zastosowanych modeli, zestawy zastosowanych czynników i inne szczegóły procedury decyzyjnej są ukryte przed osobą, której los jest zagrożony.

Wykorzystywane modele mogą opierać swoje decyzje na opiniach nauczycieli-ekspertów, którzy popełniali systematyczne błędy lub mieli pewne uprzedzenia – rasowe, płciowe.

Sztuczna inteligencja wyszkolona na decyzjach takich ekspertów będzie sumiennie powielać te uprzedzenia w swoich decyzjach. W końcu te modele mogą zawierać określone wady.

Niewiele osób ma teraz do czynienia z tymi problemami, bo oczywiście SkyNet rozpętanie wojny nuklearnej jest oczywiście znacznie bardziej spektakularne.

Sieci neuronowe jako „gorący trend”

Z jednej strony sieci neuronowe są jednym z najstarszych modeli wykorzystywanych do budowy systemów AI. Początkowo pojawiły się w wyniku zastosowania podejścia bionicznego, szybko uciekły od swoich biologicznych prototypów. Jedynym wyjątkiem są tu impulsowe sieci neuronowe (jednak nie znalazły one jeszcze szerokiego zastosowania w branży).

Postęp ostatnich dziesięcioleci wiąże się z rozwojem technologii głębokiego uczenia – podejścia, w którym sieci neuronowe są składane z duża liczba warstwy, z których każda jest zbudowana na podstawie pewnych regularnych wzorów.

Oprócz tworzenia nowych modeli sieci neuronowych poczyniono również istotne postępy w dziedzinie technologii uczenia się. Dziś sieci neuronowe nie są już nauczane za pomocą centralnych procesorów komputerów, ale za pomocą wyspecjalizowanych procesorów zdolnych do szybkiego wykonywania obliczeń macierzowych i tensorowych. Najpopularniejszym typem takich urządzeń są dziś karty graficzne. Jednak aktywnie rozwijane są jeszcze bardziej wyspecjalizowane urządzenia do trenowania sieci neuronowych.

Generalnie oczywiście sieci neuronowe są dziś jedną z głównych technologii w dziedzinie uczenia maszynowego, której zawdzięczamy rozwiązanie wielu problemów, które wcześniej były rozwiązywane w sposób niezadowalający. Z drugiej strony oczywiście musisz zrozumieć, że sieci neuronowe nie są panaceum. W przypadku niektórych zadań nie są one najskuteczniejszym narzędziem.

Więc jak inteligentne są dzisiejsze roboty?

Wszystko jest względne. Na tle technologii roku 2000 obecne osiągnięcia wyglądają jak prawdziwy cud. Zawsze znajdą się ludzie, którzy lubią narzekać. 5 lat temu mówili z mocą i głównym, że maszyny nigdy nie pokonają ludzi w go (a przynajmniej nie wygrają w najbliższym czasie). Mówiono, że maszyna nigdy nie byłaby w stanie narysować obrazu od zera, podczas gdy dziś ludzie praktycznie nie potrafią odróżnić obrazów stworzonych przez maszyny od obrazów nieznanych im artystów. Pod koniec zeszłego roku maszyny nauczyły się syntezować mowę, prawie nie do odróżnienia od człowieka, a w ostatnich latach uszy nie usychają od muzyki tworzonej przez maszyny.

Zobaczmy, co stanie się jutro. Z wielkim optymizmem patrzę na te zastosowania AI.

Obiecujące kierunki: od czego zacząć nurkować w dziedzinie sztucznej inteligencji?

Radziłbym spróbować opanować na dobrym poziomie jeden z popularnych frameworków sieci neuronowych oraz jeden z popularnych języków programowania w dziedzinie uczenia maszynowego (najpopularniejszy dziś to TensorFlow + Python).

Po opanowaniu tych narzędzi i idealnie mocnych podstawach w dziedzinie statystyki matematycznej i teorii prawdopodobieństwa powinieneś skierować swoje wysiłki w obszar, który będzie dla Ciebie najbardziej interesujący.

Zainteresowanie tematem pracy jest jednym z Twoich najważniejszych asystentów.

Zapotrzebowanie na specjalistów od uczenia maszynowego istnieje w różnych dziedzinach – w medycynie, bankowości, nauce, produkcji, więc dzisiaj dobry specjalista ma większy wybór niż kiedykolwiek. Potencjalne korzyści z którejkolwiek z tych branż wydają mi się nieistotne w porównaniu z tym, że praca przyniesie Ci przyjemność.