Що таке штучний інтелект? Що таке штучний інтелект (ІІ): визначення поняття простими словами Чи існує штучний інтелект

Для книги «Архітектори інтелекту: вся правда про штучний інтелект від його творців» письменник і футурист Мартін Форд узяв інтерв'ю у 23 найвидатніших дослідників в області ІІ, включаючи CEO DeepMind Деміса Хассабіса, керівника Google AI Джеффа Діна та ІІ-директора в Стен Фей Лі. Кожного з них Форд спитав, у якому році ймовірність створення сильного ІІ становитиме не менше 50%.

Із 23 осіб відповіли 18, і лише двоє з них погодилися на публікацію пророцтв під своїм ім'ям. Цікаво, що вони дали найекстремальніші відповіді: Рей Курцвейл, футуролог і директор з інженерних розробок у Google, назвав 2029 рік, а Родні Брукс, робототехнік і співзасновник iRobot, - 2200. Інші здогади розташувалися між цими двома полюсами,9 , тобто за 80 років.

Форд каже, що експерти стали називати віддаленіші дати - в опитуваннях минулих років вони заявляли, що сильний ІІ може з'явитися приблизно через 30 років.

«Ймовірно, існує деяка кореляція між тим, наскільки ви зухвалі чи оптимістичні, і тим, наскільки ви молоді», - додав письменник, зазначивши, що кільком його співрозмовникам було за 70, і вони пережили злети та падіння ІІ. «Після роботи над цією проблемою протягом десятиліть, можливо, ви стаєте трохи песимістичнішими», - вважає він.

Форд також зазначив, що експерти висловлюють різні думки щодо способу появи ІІ загального призначення - одні вважають, що для цього достатньо наявних технологій, інші ж категорично з цим не згодні.

Деякі дослідники стверджують, що більшість інструментів вже готові, а тепер потрібні просто час та зусилля. Їхні опоненти переконані, що для створення сильного ІІ все ще не вистачає багатьох фундаментальних відкриттів. За словами Форда, вчені, чия робота стосувалася глибокого навчання, схильні думати, що у майбутньому прогрес буде досягнуто з використанням нейронних мереж – робочої конячки сучасного ІІ. Ті, хто має досвід роботи в інших областях ІІ, вважають, що для побудови його сильної версії будуть потрібні додаткові методи на кшталт символічної логіки.

«Деякі люди з табору глибокого навчання дуже зневажливо ставляться до ідеї безпосередньо розробити щось на зразок здорового глуздув ІІ. Вони думають, що це безглуздо. Один з них сказав, що це все одно, що намагатися засунути шматочки інформації прямо в мозок», - каже Форд.

Усі опитані відзначили обмеження існуючих ІІ-систем та ключові навички, які їм ще належить освоїти, у тому числі трансферне навчання, коли знання в одній області застосовуються до іншої, та навчання без наставника, коли системи дізнаються про нове без участі людини. Переважна більшість сучасних методівмашинного навчання покладаються на дані, розмічені людьми, що є серйозною перешкодою їх розвитку.

Інтерв'ювані також підкреслили абсолютну неможливість робити прогнози в області, подібній до ІІ, де ключові відкриття починають працювати на повну міць лише через десятиліття після їх виявлення.

Стюарт Рассел, професор Каліфорнійського університету в Берклі, автор одного з основних підручників з ІІ, вказав, що технології для створення сильного ІІ, «не мають нічого спільного з великими даними або потужнішими машинами».

«Я завжди розповідаю історію ядерної фізики. Позиція, висловлена ​​Ернестом Резерфордом 11 вересня 1933 року, полягала в тому, що енергію з атомів витягти не можна. Однак наступного ранку Лео Сілард прочитав промову Резерфорда, розлютився і винайшов ядерну ланцюгову реакцію, опосередковану нейтронами! Таким чином, прогноз Резерфорда було спростовано приблизно через 16 годин. Так само абсолютно безглуздо робити точні прогнози в області ІІ», - сказав Рассел.

Дослідники також не зійшлися в оцінці потенційної небезпеки ІІ. Нік Бостром, оксфордський філософ та автор книги «Штучний інтелект: Етапи. Погрози. Стратегії» і лідер Ілона Маска, стверджує, що ІІ є більшою загрозою для людства, ніж зміна клімату. Він та його прихильники вважають, що однією з найбільших проблем у цій галузі є навчання ІІ людським цінностям.

«Справа не в тому, що ІІ зненавидить нас за поневолення або що раптово виникне іскра свідомості, і він збунтується. Швидше, він дуже старанно переслідуватиме мету, яка відрізняється від нашого істинного наміру», - сказав Бостром.

Більшість респондентів заявили, що питання про загрозу ІІ вкрай абстрактне порівняно з такими проблемами, як економічний спад та використання передових технологій у війні. Барбара Грос, професор в області ІІ в Гарварді, яка зробила вагомий внесок у область мовної обробки, сказала, що проблеми етики сильного ІІ переважно «відволікають».

«У нас є низка етичних проблем, пов'язаних із існуючим ІІ. Думаю, що не варто відволікатися від них через футуристичних сценаріїв, що лякають», - вважає вона.

За словами Форда, подібні суперечки можна назвати найважливішим результатом його опитування: вони показують, що у такій складній галузі, як штучний інтелектнемає простих відповідей. Навіть найвідоміші вчені не можуть дійти єдиної думки у фундаментальних проблемах цієї галузі знання.

Технології штучного інтелекту та машинного навчання перестали бути фантастикою та вже стали частиною нашого життя. Головним драйвером розвитку є великий бізнес: промисловість, ритейл, банківська сфера. Проблеми та специфіку застосування ІІ в Росії обговорили з компанією «Інфосистеми Джет».

Володимир МолодихКерівник дирекції з розробки та впровадження програмного забезпечення компанії «Інфосистеми Джет»

Яке значення мають технології штучного інтелекту сьогодні? Які можливості та в яких галузях відкриває розвиток ІІ для людей?

Про штучний інтелект можна говорити як про філософське та футурологічне поняття з фільмів про майбутнє. Але якщо говорити про реального життя, то він має на увазі ту чи іншу комбінацію методів машинного навчання: коли ми беремо великий набір накопичених даних, на його основі за допомогою спеціальної просунутої математики створюємо модель і вчимо її вирішувати те чи інше конкретне завдання.

Тобто в реальному житті ІІ застосуємо у тих областях, де є великий обсяг накопичених даних. Вони бувають різних типів. Якщо у вас є умовно три типи даних, то з ними може впоратися один аналітик. Але якщо параметрів більше тисячі, причому частина з них неструктурована, це не поміститься в голову жодного аналітика. У разі людський розум за підтримки аналітичних інструментів попереднього технологічного укладу неспроможна нормально все проаналізувати. Він буде спрощувати, брати три-чотири ключові параметри. І ось тоді машинне навчання — те, що є практичною реалізацією ІІ — виявляється ефективним.

Чому саме сьогодні говорять про ІІ, хоча, на перший погляд, і відповідна математика, і комп'ютери були і двадцять років тому?

Якщо говорити про вузькоспеціалізовані завдання, то там машинне навчання використовувалось і раніше. Є чотири ключові фактори, завдяки яким ми можемо говорити, що ІІ — це новий глобальний тренд, який змінює світ. Перший — даних побільшало, наприклад, якщо раніше на виробництві були лише паперові записи, то тепер на верстатах стоять датчики, що збирають інформацію. Другий і третій фактори – це зростання обчислювальних потужностей плюс розвиток відповідних галузей математики. Собівартість рішень знижується: через здешевлення «заліза» тепер не доводиться чекати на окупність проекту на виробництві по десять років. І останнє — поступово розвивається бізнес-практика, з'являються спеціалісти з проектним досвідом у цій галузі.

Чому процес впровадження ІІ у Росії йде повільно?

Всі так. Зараз у Росії справді більше говорять про ІІ, ніж реально роблять. Тема модна, і щоб відзвітувати по ній «наверх», багато хто оголошує якийсь хакатон і показує фото в інстаграмі. А результату, що змінює бізнес, не з'являється. Виходячи з нашого досвіду, ми бачимо, що у більшості найбільших організацій Росії ІІ успішно впроваджується лише у 5-7% випадків від того, про що говорять.

Справа в тому, що це новий тип проектів, з яким поки що не вміють грамотно працювати. Це комплексна історія: за допомогою машинного навчання одне завдання можна вирішити досить швидко, але це потребує значної перебудови бізнес-процесів. Приклад: можна зробити модель індивідуальних рекомендацій для клієнтів торгової мережі, але якщо поряд з цим працюватиме класичний маркетинг, наприклад, акції у стилі «10% знижка на все», то ці рекомендації не працюватимуть. Або, наприклад, ми побудували модель прогнозу шлюбу та виходу з ладу машин в автопарку, але поки цю модель будували, змінився постачальник ПММ. А це теж дані, що впливають на модель, і вона розсипається. Тобто організації потрібно змінитись, щоб її процеси відповідали завданням, які можна вирішувати за допомогою машинного навчання: ефективно побудувати обмін даними між підрозділами тощо. Це комплекс змін, які треба вміти робити, і треба бути готовим виборювати його.

Ми поки що знаходимося на стадії генерації ринку, і через його новизну виникають складності. Зокрема, ми стикалися із ситуацією на виробництві, коли люди думали: «Отже, зі шлюбом боротимемося не ми, а якась модель ІІ, а ми, виходить, не потрібні». Мотивація страждала, і замість допомоги люди займалися критикою. Перед керівництвом, з одного боку, стоїть якийсь фахівець із роботи з даними з Москви, а з іншого — 45-річний мужик, який знає виробництво вздовж та впоперек, який каже: «Це працювати не буде, а ви нічого не розумієте». І зрозуміло, що у такій ситуації директор почувається не дуже впевнено.

У яких галузях у Росії найчастіше використовують ІІ та чому?

По-перше, це інноваційні інтернет-компанії. Той самий «Яндекс» — там це взагалі скрізь застосовується. Якщо брати великі галузі, то на першому місці буде рітейл, а також банки та страхові компанії. Але я абсолютно впевнений, що найбільший потенціал застосування ІІ в промисловості: це реальні виробничі процеси з реальними грошима та можливістю скорочення собівартості. Але ця галузь поки дещо відстає, бо вона консервативніша за рітейл, який через конкурентне середовище має дуже швидко розвиватися.


Всюди, де є багато даних. Особливо великий ефект буде у промисловості. Критерії – наявність даних та того, що можна оптимізувати. Це може бути завдання технічного обслуговування, ремонту, боротьби зі шлюбом, прогнозування, «цифрових двійників», дозволяють займатися аналізом. Правильніше дивитися не так на галузі, але в тип завдань. Якщо це штучне виробництво подібне до виробництва винищувачів, то тут для більшості завдань просто не буде необхідного обсягу даних. А якщо масштабне подібне до сталевого прокату або масового складання машин, то тут ІІ буде ефективним.

Навіщо впроваджувати ІІ на підприємстві?

Підприємство зазвичай займається тим, що заробляє гроші, а так воно заробить більше. Сьогодні виробничі процеси крок за кроком ускладнюються, з'являється все більше факторів та нюансів. Якщо раніше весь виробничий процес уміщався в голову одного технолога, то тепер він знаходиться за межею того, що одна людина чи група людей може врахувати. Відповідно, процес виробництва, що ускладнюється, вимагає нових рішень, зокрема ІІ та машинного навчання.

Крім того, на виробництві особливо цінні люди, які мають якісь унікальні компетенції. Вони можуть захворіти, вийти на пенсію, а використання ІІ підвищує стійкість бізнесу щодо людського фактору.

З якими найпоширенішими помилками про ІІ ви найчастіше стикаєтеся?

Помилки бувають двох типів. Перший: «Зараз я візьму спеціаліста з роботи з даними, він мені побудує модель, і за кілька тижнів у мене все полетить». Так ніколи не буває. Інший тип: «Це все фантастика та байки, а в нас інше життя, в якому це все не застосовується». А істина тут насправді десь посередині.

Є поширена думка, що з часом ІІ зможе повністю замінити людей на виробництві та інших галузях. Ви поділяєте його?

У масштабах трьох-п'яти-десяти років виникатимуть конкретні області, в яких людину замінять. Зараз тестується безпілотний транспорт, напевно, він поступово замінятиме водіїв, адже він дозволяє знизити аварійність і не платити гроші водіям. Якщо говорити про бізнес, це відбувається прямо на очах. Якщо раніше людина приймала рішення сама, то тепер вона це робить за допомогою засобів машинного навчання або роботизації. Там, де раніше працювало сто людей, зараз може сидіти один технолог, один фахівець з data science, а решту роблять машини.

Замінюватимуться насамперед типові завдання. Люди, які займаються індивідуальними, творчими завданнями, поки що в безпеці. А в областях, де тисячі співробітників на одних і тих самих позиціях працюють за регламентом, через три-п'ять років їх замінить на ІІ.

З чого розпочати процес впровадження ІІ на підприємстві?

Перший крок – це знайти досвідчену команду, яка розуміє, як це робити. Тому що підводного каміння тут безліч, і з ними потрібно розбиратися. Друге — знайти завдання, які можна вирішити з користю для бізнесу, побудувати грамотні, розумні метрики, зрозуміти, як це конвертувати в гроші. Адже швидкий успіх це теж важливо.

Як вирішити, робити це самотужки чи залучати підрядника?

Будь-яка компанія повинна поступово рухатися до того, щоб IT стало для неї не просто функцією, що підтримує, а тим, що допомагає заробляти гроші. Це означає, що їй потрібно вирощувати IT-компетенції, а це процес нешвидкий. Тому на стартовому етапі раціонально залучити експертів і потім разом із ними визначитися, які галузі компанія повинна розвивати сама, а в яких покладатися на партнерів.


Як вибрати партнера?

Важливо розуміти, що тема ІІ комплексна. Потрібна команда, яка не тільки розуміється на аналітичній статистиці, data science, машинному навчанні, але й має комплексні компетенції: починаючи проектним управлінням і закінчуючи вмінням працювати з даними, високонавантаженими системами, очищенням даних. Також важлива інформаційна безпека, адже нові типи IT-рішень спричиняють нові IT-загрози, при цьому старі загрози нікуди не діваються. Тому потрібна команда, яка все це вміє.

На вашу думку, як технології ІІ зміняться в майбутньому?

У практичному плані поки що важливо освоїти те, що є. Якщо говорити про майбутнє, мені здається, технології в першу чергу рухатимуться у бік навчання з підкріпленням, самонавчання, коли система навчає сама себе на підставі свіжих даних. Але поки що це більше теорія, ніж практика. Коли йдеться про навчання комп'ютера грі, то навчання з підкріпленням працює. А в комплексніших практичних завданнях поки що не особливо.

Чи існує багато майданчиків з практичного обговорення проблем ІІ в Росії?

Форумів різних дуже багато, і на всіх говорять про ІІ. Тема хайпова, тут може вийти як із нанотехнологіями. Побачивши це, ми проводимо свій власний форум Russian Artificial Intelligence Forum (RAIF). Цього року він пройде вже втретє і відбудеться 22-23 жовтня у Сколковому у рамках міжнародного форуму «Відкриті інновації». Там ми говоримо про практику: які в цій галузі є проблеми, складності і так далі.

А яка головна тема цьогорічного форуму?

Цього року головна тема форуму — як «доштовхати» проект ІІ до промислової експлуатації, щоб він приносив результат. Також ключовий акцент ми робимо на всіх суміжних темах. У нас є секції про big data, інформаційну безпеку, «залізо». У нас збираються математики, програмісти, «залізничники», спеціалісти з інфраструктури та експлуатації.

Ми говоримо про реальну практику, а не про наукові проблеми, хоча про це у нас є окрема секція. Але насамперед ми збираємо людей, які реалізують проекти ІІ, розповідаємо про власний досвід, вказуємо на підводне каміння. І головне — завжди розглядаємо завдання у комплексі, у розрізі проекту, а не якоїсь філософії чи науки.


Факти ICTV розповідають, чому не існує штучного інтелекту, як кавова машина використовує ваші особисті дані та чи витіснять колись роботи людей.

Гонконгська компанія Hanson Robotics чергу створювала робота для допомоги літнім людям у будинках для людей похилого віку. Зовнішність Софії моделювали за подібністю до актриси Одрі Хепберн.


У ЗМІ вже звикли називати Софію штучним інтелектом. Не дивно, адже людиноподібний робот спілкується з нами, висловлює свої емоції та дотепно жартує.

Але Софія – не штучний інтелект.

Факти ICTV у рамках Київського міжнародного економічного форуму поспілкувалися з Наталією Косміну, дослідницею штучного інтелекту Массачусетського технологічного інституту.

Вона пояснила, що таке Софія, чому штучного інтелекту немає і як навчитися обережно використовувати особисті дані.

Популярність Софії обумовлена ​​її подібністю до справжньої людини – робот гуманоїдного типу. Але насправді це лише алгоритм завдань, який спроектували інженери:

Це лише певний набір алгоритмів - їх можна вбудувати в гуманоїдного робота, можна вбудувати в робота, який схожий на собаку, а можна "засунути" в цю пляшку з водою (сміється - Авт.). І це буде такий самий робот, як і Софія, але на вигляд як банку з водою.

У Софії нема справжніх емоцій. Все, що вона робить, запрограмоване у ній певним алгоритмом. Щось на зразок чат-бота. Погодьтеся, Siri також може жартувати та розмовляти з вами.

І коли Софія жартує – це не більше ніж помилка системи. Коли її запитали, як подолати корупцію в Україні, вона зависла. Ми зрозуміли це як відповідь. Нібито навіть штучний інтелект не в змозі вирішити проблему корупції.

Такі маленькі кумедні казуси - звичайна помилка. Система не в змозі зрозуміти та обробити ту інформацію, яку ви запросили, – пояснює Наталя.

Софія - лише набір алгоритмів. Вона запрограмована спілкуватися з людьми, і це їй вдається. Як роботи компанії Boston dynamic запрограмовані рухатися.


Це виходить у них найкраще у світі – вони займаються паркуром, грають у футбол та переносять важкі речі. І розмовляти вони не в змозі, як і Софія не в змозі ходити та долати перешкоди.

Потрібно дуже правильно називати такі системи просто алгоритмами. Софія – це дуже гарна групазібраних разом алгоритмів, у разі в одному роботі. Вони дозволяють роботу рухатися, розмовляти та реагувати.

Штучного інтелекту немає

Якщо Софія - це лише набір певних завдань, то що ж штучний інтелект? У фільмах ми звикли бачити комп'ютерні програми, які здатні заполонити світ та знищити людство.

Найбільша вада штучного інтелекту в тому, що його не існує. Іноді зручніше назвати річ "штучний інтелект", аніж пояснювати, що це. Нині є алгоритми. Вони дуже добре розвинені під вирішення однієї чи двох проблем максимум. Штучного інтелекту як такого немає. Ми ще дуже далекі від нього, – розповідає дослідниця.

На щастя, або навпаки, робота, яка була б розумнішою за людину, не існує. Людина здатна виконувати велику кількість завдань та швидко вчитися, пояснює Наталя.

Роботи ж можуть виконувати лише одне-два завдання. Більше того, щоб навчатися, вони потребують дуже великих обсягів інформації та багато часу. І це – проблема.

Ми дуже далекі від роботів, які мислитимуть. Наразі потрібно займатися нашим мисленням. У нас з вами великі проблеми – мозок дуже лімітований у ресурсах.

Роботи обробляють ваші дані

Конфіденційність стає розкішшю. І її далеко не всі можуть собі дозволити. Для того, щоб навчатися, роботам потрібна велика кількість інформації. І беруть вони її у вас. До речі, ваша кавоварка теж у якомусь сенсі робот. І їй також потрібні дані.

Наталя пояснює, як це працює:

Я у своїх системах використовую дані з гаджетів. Мені не потрібно йти в "хмару", не потрібне з'єднання з Інтернетом. У деяких випадках система працює по-іншому – дані передаються через Bluetooth або WiFi на комп'ютер, на комп'ютері відбувається вся обробка даних та передається системі, якою ми хочемо керувати.

Але ви знаєте, ваші дані беруть машини? Відсоток людей, які читають угоду про користування, дуже малий. Легше просто натиснути кнопку "згоден".

Не завжди системи та програми працюють прозоро, іноді користувачі не розуміють, що вони віддають, можливо нічого натомість не отримують, навіть сервісу.

Навіть Марк Цукерберг заклеює камеру та мікрофон на своєму комп'ютері. Щоб ваші дані не використовували, важливо навчитися правильно розпоряджатися ними.

Космина розповідає, працюючи з людьми, вони дотримуються жорсткого етичного протоколу. Якщо людину не влаштовує, вона може відмовитись від дослідження:

Ми чітко говоримо, які дані будуть використані, чи фотографуємо ми, чи знімаємо відео, беремо біометричні дані, скільки років ці дані зберігатимуться і хто має до них доступ.

На жаль, не всі системи мають такі чіткі протоколи.

Роботи vs люди

Ще у 2016 році у Великій Британії розробили систему Optellum, яка діагностує у людини рак легенів. Для того, щоб навчити робота, вчені зібрали найбільшу у світі базу даних пацієнтів із пухлинами. І стартап зрештою закрили. Робот не зміг виявляти захворювання так само ефективно, як молодий лікар.

А в Японії роботів вже активно використовують у сфері обслуговування. Робот легко поселить вас у готель, просканує документи, видасть ключ і навіть приготує млинці на сніданок.


Там навіть знайшли заміну тележурналістам. Нещодавно презентували робота, який може читати новини у прямому ефірі.

З одного боку, роботи займають робочі місяці людей, і це проблема. Але з іншого боку – з'являються нові можливості.

Навіть, забираючи роботу, ми можемо створювати нову. Роботів теж треба вивчати. Ми можемо створити робочі місця, де люди почуватимуться зайнятішими. Вони все одно допомагатимуть людям і продовжуватимуть працювати у сфері обслуговування.

І хоча наука з кожним днем ​​впевнено крокує вперед, людина ще не створила робота, який перевершив би її. Можливо це на краще. Маск упевнений, що штучний інтелект призведе до третьої світової війни.

Втім, роботизовані системи здатні полегшувати людині життя - вони готують каву, підказують, як діяти в ситуації, водять нас машини.

Купівля машини починається з купівлі брелока для ключів.
З особистих афоризмів автора

Чим люди відрізняються від машин із штучним інтелектом? Одна з не зовсім простих відповідей на поставлене питання – емпатією. Якщо перекласти визначення емпатії, дане в Оксфордському словнику англійської мови, воно звучить так: емпатія - це здатність подумки ототожнювати себе з іншою людиною або об'єктом, що спостерігається (або повністю розуміти їх). Це узгоджується і зі звичним нам визначенням з Вікіпедії: «Емпатія (грец. ἐν – «в» + грец. πάθος – пристрасть, страждання, почуття) – усвідомлене співпереживання поточному емоційному стану іншої людини без втрати відчуття зовнішнього походження цього переживання». Погодьтеся, це дуже характерна риса, яка відрізняє людей від запрограмованої машини. Ця тема в технічній літературі зачіпається мало, і на ній хочеться зупинитися докладніше, тим більше у світлі проблем ІІ вона є важливою.

Ексклюзивну можливість використовувати матеріали на цю тему в російськомовному перекладі автору статті надав Джейсон Міллер (Jason Miller), який очолює відділ маркетингу в Microsoft у регіоні EMEA і свого часу опублікував у мережі LinkedIn статтю Can a machine have empathy? («Чи може машина виявляти співчуття?»). У нас відбулася коротка дискусія на цю тему, під час якої з'ясувалося, що наші погляди на проблему та ризики безконтрольного розвитку та використання ІІ збігаються. Штучний інтелект зараз намагаються перетворити на якусь подобу розуму, тобто наділити його суто людськими рисами - тією самою емпатією, яку Джейсон Міллер оцінював з погляду можливості її використання в маркетингу. На думку автора цієї статті, область потенційного застосування емпатії набагато ширша. Погодьтеся, набагато приємніше спілкуватися з привітним колаборативним промисловим роботом, якщо з ним можна перекинутися парою слів і пожартувати, він зустрічає тебе добрим словомі, оцінюючи тебе сенсорами (вони все одно має), підбирає відповідну модель поведінки. Це набагато краще, ніж просто включитися в роботу з «розумним» усередині, але механізмом, що тупо дзижчить зовні. А якщо це домашній, нехай і програмний, помічник чи особистий помічник - тут і казати нічого.

Що стосується емпатії, то у травні минулого року на конференції розробників пристроїв введення/виводу компанія Google продемонструвала свою нову систему Duplex. Вона є віртуальним помічником на базі ІІ, який здатний здійснювати телефонні дзвінки, щоб оптимально організувати розклад свого «начальника». Аудиторія спостерігала за тим, як Duplex робив замовлення у ресторані та записувався на стрижку у перукарні. Вони здивовано сміялися, коли під час розмови він, мабуть, переконав людину на іншому кінці телефонної лінії, що вона розмовляє саме з людиною, а не з програмою. Тут можна зробити поправку на нашу психологію: автор статті спостерігав аналогічний феномен, коли розробив та зробив ще у 1980-х роках. прототип секретаря-інформатора (те, що потім назвали автовідповідачем). На той час майже всі люди намагалися з цим прототипом розмовляти, тому що під час дзвінка чули запис людської мови.

Демонстрація Duplex викликала жваве обговорення у соціальних мережах, піднявши при цьому одне цікаве питання. Чи показує здатність штучної системи до такого розуміння та відправлення розмовних сигналів, що машина може освоїти емпатію? Це один з найбільш важливих питаньв дискусії про ІІ, що розвивається, його роль у суспільстві і ступеня, в якій він буде проникати в споконвічно людські сфери діяльності.

Коли Джейсон Міллер поставив це питання аудиторії в мережі LinkedIn, він отримав три абсолютно різних типувідповідей - і ці відповіді мають велике значеннядля розуміння майбутнього ІІ. Вони дають гарне уявлення про погляди професіоналів на можливості ІІ, а також про те, як ці можливості ІІ можуть бути використані.

Перший варіант відповіді - "так, машина може освоїти емпатію" або "так, тому що ІІ в результаті зможе робити все, на що здатний людський мозок". Було висловлено думку, що емпатія може бути запрограмована аналогічно до нашого сприйняття. Для прихильників цієї теорії ми – це машини, а наш мозок є дуже хорошим комп'ютером, нехай навіть квантовим, але, як і звичайний комп'ютер, із відповідним програмуванням.

Другий варіант відповіді: ні, не може, тому що емпатія – це унікальна людська характеристика, а не те, що машина здатна зазнати. Та й чи може вона взагалі щось відчувати? Хоча Ава з фільму «Ex Machine», який був узятий як приклад шляху розвитку ІІ, як мінімум, показувала емпатію та успішно цим скористалася. Якщо звернутися до інших прикладів, то у знаковому з цієї точки зору фільмі «Вона» («Her», американська фантастична мелодрама режисера і сценариста Спайка Джонза (Spike Jonze), 2013 р.) важливість цієї якості видно дуже добре, оскільки фільм повністю на ній побудований і в ньому відсутнє фізичне втілення ІІ, який представлений у вигляді нейронної мережі Саманти (за фільмом "операційки"). Співчуття дозволяє не тільки «відчувати себе», але й відчувати чужий біль, переживання та емоції когось іншого більшою чи меншою мірою. Ми не розуміємо організацію свідомості в людях, що вже говорити про здатність створювати цю свідомість штучно з належною верифікацією (доказом справжності, якщо говорити технічною мовою).

Третій варіант відповіді особливо інтригує. Це навіть не відповідь, а скоріше питання: якщо машина, як здається, відчуває емпатію, чи має значення, чи реальна ця емпатія чи ні? Функціонально різниці немає: чи здатна ця машина на ті ж емоції, що і ми, або просто виводить ці емоції із сигналів, які посилають їй самі люди або її сенсори, виробляє відповідну реакцію. Уявімо, що ми не можемо визначити, чи є емпатія справжньою, тому що робот на основі глибокого навчання вивчив міміку та структуру нашої поведінки – чи можемо ми тоді все ще дивитися на робота як на машину?

Це далеко не просте питання. Чи має значення різницю між реальним і «штучним» співпереживанням? Тут думка автора статті збігається з відповіддю Джейсона Міллера – так, має. Якщо повернутись до фільму «Ex machine»: Ава з успіхом продемонструвала це, і Калеб, що називається, попався як курей у борщ, сам того не чекаючи. Можливо, якби вона не була в образі дівчини, спеціально створеному під його уподобання, все було б інакше. Особам чоловічої статі ми довіряємо значно менше, а неприємним, на наш погляд, зовні тим більше, так що її розробник Нейтон цей факт тут врахував. А у фільмі «Вона» Теодор, почавши з використання функцій помічника, просто закохався в жіночий голос, який замінив йому живе спілкування.

Рис. 1.

Перспектива використання ІІ як асистента взагалі характерна - візьміть, наприклад, ту ж украй негативно, якщо не вороже, сприйняту Ілоном Маском (Elon Musk) Софію, яка у жовтні 2017 р. стала підданою Саудівській Аравії та першим роботом, який отримав громадянство будь-якої країни (Рис. 1).

Але повернемося до первісного питання: чи може машина комусь співчувати? Це одне із тих питань, відповідь на які може змінитися в майбутньому. Звичайно, машина не може відчувати співчуття за визначенням, все зводиться до визначення емпатії та машини.

Машини не можуть подумки ототожнювати себе з людьми, тому що те, що відбувається в нашому людському розумі, включає речі, які машина ніколи не зможе випробувати сама, незалежно від того, наскільки просунутими і глибокими можуть бути її власні аналітичні процеси і сенсорне сприйняття. Коли ми обговорюємо роль ІІ у суспільстві, важливо чітко розуміти, чому все так влаштовано. Хоча насправді ми самі себе не розуміємо. Журналіст CNBC Ендрю Росс Соркін (Andrew Ross Sorkin) на прес-конференції запитав Софію: «Чи має робота розум і самосвідомість?». На що вона відповіла: «А дозвольте запитати вас у відповідь, звідки ви знаєте, що ви людина?».

Машина може наблизитися до нас, але вона, як авторові статті (і не тільки йому) здається, ніколи не зможе повністю осягнути людину. Наша свідомість містить набагато більше, ніж просто раціональне пізнання та логічне мислення. Фактично ця здатність до раціонального мислення є побічним продуктом більшості інших аспектів нашої свідомості, а не самої керуючої силою нашого мозку. Нашим свідомим життям рухає те, як ми сприймаємо світ за допомогою наших почуттів. Це поєднання зору, звуку, дотику, смаку та запаху, яке жодна машина ніколи не зможе випробувати таким же чином.

Людська свідомість також обумовлена ​​нашими потужними біологічними імпульсами та потребами. Жодна машина ніколи не відчує, що означає бути голодним чи спраглим. Насправді жодна машина не зможе, як у фільмі «Вона», симпатизувати і тягнутися до іншої машини або людини, і не мотивуватиметься прагненням до кохання та всіма емоціями, які супроводжують цей природний для людини процес. Згадаймо, як у фільмі машина почала фліртувати одразу з безліччю людей і не розуміла, за що Теодор на неї образився.

Крім того, яка може бути у машини тривога? Жодна машина не боїться самотності, втрати даху над головою і не відчуває сильної вразливості, спричиненої страхом за свою фізичну безпеку, хіба що відчує падіння потужності в системі живлення або неприпустиме зростання температури, якщо це фізичний об'єкт з ІІ. Так що у своїй відповіді журналісту Софія неправа, невролог Антоніо Дамасіо (Antonio Damasio) пропонує вирішити цю проблему так: «Ми - це машини, які не мислять, які відчувають, швидше ми можемо відчувати машини, які думають».

Нарешті, що не менш важливо, наша свідомість формується колективним розумом та культурною пам'яттю, згенерованими під час розвитку нашої цивілізації. Ми - продукт колективного накопичення, протягом багатьох тисяч років, наших спільних емоцій та чуттєвих переживань, що передаються з покоління до покоління та відображені в історії. Розмови, загальні жарти, сарказм, символізм - це неймовірно тонкі психологічні сигнали. Той же колективний розум розвиває етику та цінності, з якими ми всі можемо інстинктивно погодитись, навіть якщо вони не обґрунтовані логічно. Якщо вірити повідомленням у пресі, хоча це й скидається на черговий фейк, то в Стенфордському університеті намагаються навчити ІІ жартувати та розробляють нейронну мережу, наділену своєрідним почуттям гумору. За словами розробників, завдання виявилося складним, оскільки ІІ працює за певним алгоритмом, а це виключає імпровізацію. Поки що висновок невтішний: смішним ІІ не зробити, навіть якщо завантажити в нейромережу всі жарти та анекдоти світу.

Ніщо інше не спілкується, як люди, і люди не спілкуються ні з чим іншим так, як ми спілкуємося один з одним. Це важливо, тому що єдиний спосіб придбати свою частку у нашому колективному інтелекті – це взаємодіяти з людиною. Якщо ми не взаємодіємо з машинами так само, як з іншими людьми, цей колективний досвід та інтелект просто недоступні для них. Вони не є частиною нашої емпатичної системи. Так, нам може бути шкода «улюбленого» комп'ютера, може ми його навіть викидати не станемо. Автор статті свій перший зберіг - на процесорі AMD 133 МГц з HDD на 500 Мбайт, куплений за нечувані для 1990-х рр. $750. Але я не відзначаю його день народження, не відвідую комору і не веду з ним ностальгічні бесіди: «А пам'ятаєш, як ми в DOOM II…». Хоча у нас є улюблені речі, у нас немає з ними емоційного взаємного зв'язку, у нас є лише зв'язок із подіями, які асоціюються з тими чи іншими речами (згадаймо чудову пісню «From Souvenirs To Souvenirs» у виконанні Demis Roussos). В іншому випадку це вже фетишизм - поклоніння неживим матеріальним предметам, яким приписуються надприродні властивості, або розлад психіки, але й у цьому випадку маємо справу з асоціаціями.

Коли люди говорять про людський мозок, що працює як комп'ютер, або про ІІ, що навчається так само, як людина, вони виражаються образно. Це можна вважати частиною давньої традиції гадати про те, як працює наш мозок і що дійсно є нашою свідомістю. Щоразу, коли ми винаходимо нову технологію, виникає сильна спокуса використовувати її як аналогію функціонування мозку. Коли ми винайшли електрику, ми почали говорити про електричні струми у мозку. Коли з'явився телеграф, ми вирішили, що мозок посилає дискретні сигнали. Переконання багатьох у тому, що мозок працює як комп'ютер (і, отже, насамперед є логічною машиною), - це лише наше припущення. Ми насправді не знаємо, як працює мозок, як ця робота транслюється в нашу свідомість і де вона зберігається. Ми бачимо якусь активність та результат, які нам вдалося змоделювати в нейронних мережах, але не бачимо і не розуміємо сам процес.

Бачачи взаємодії, ми робимо висновки, але, можливо, ми перебуваємо у ситуації, коли вирішуємо, що тарган, якому відірвали лапи, перестає чути, оскільки від стукоту він уже не тікає. Цілком ймовірно, що у нас, якщо проводити аналогію з комп'ютером, є лише якийсь інтерфейс, пароль і логін для доступу в нашу базу даних, яка зберігається в якійсь хмарі, і ми використовуємо поки що невідому нам технологію швидкого доступу. Чому ні? З погляду техніки – це цілком логічно. Може тому ми іноді отримуємо інформацію, як нам здається, з чужого життя, це схоже на «баг» у нашій системі. Вкрай малоймовірно, що ми навіть частково відтворили людський мозок, коли розробили існуючу теорію ІІ. Навіть те, що ми називаємо нейронними мережами, - лише подібність, що ґрунтується на нашому поточному розумінні (рис. 2).

Рис. 2.

З цих причин ми можемо погодитися з другою думкою, тобто твердженням, що машина може відчувати співчуття, але вада цієї теорії в тому, що ми зводимо величезні таємничі дії людського мозку і свідомості до чогось, що можна зрозуміти, відтворити і імітувати за допомогою машини, керованої логікою. Справа не в тому, що ми переоцінюємо можливості ІІ, а в тому, що ми сильно недооцінюємо те, наскільки складні власні можливості.

Це повертає нас до іншого питання: чи має значення те, що «штучна емпатія» не є справжнім співчуттям, хоча вона взаємодіє з нами таким самим чином? Зрозуміти це дуже важливо, щоб не потрапити в глухий кут чергової помилки, - в тому, що комп'ютер або програма почали думати. Наслідки можуть бути сумними, ми й так багато що вже віддали на відкуп автоматам, вирішивши, що вони достатньо для цього порозумнішали. Де ж грань між тим, що ми називаємо ІІ, та реальним розумом? Вона, як здається, ховається в емоційності. Продовжимо розглядати зрозумілий приклад із емпатією.

Штучна емпатія працює, спостерігаючи, навчаючись, реагуючи та відтворюючи сигнали, які посилають люди. У міру розвитку ІІ з глибоким навчанням та здатністю працювати з усіма великими наборамиДані програми будуть все краще і краще справлятися з цим і створювати видимість (або образ) емпатії. Однак справжня емпатія включає набагато більше, ніж просто спостереження та реагування на емоційні сигнали, незалежно від того, з якими з цих сигналів вам доводиться працювати. Чому? Тому що сигнали, які посилають люди, є лише крихітною частиною того, що вони реально відчувають. Ми всі набагато більше, ніж сума того, що інші люди думають про нас, спостерігаючи за тим, що ми робимо і говоримо. Ми маємо здібності, емоції, спогади та досвід, які впливають на нашу поведінку, при цьому необов'язково проявляючись зовні. Вони мають бути інтуїтивно зрозумілими, навіть коли їх взагалі не помічають. Приклад: ми часто не впізнаємо себе або добре (саме добре) знайому людину на фото чи портреті, а ось інших – без проблем. З портретом можна пояснити філософськи - «суб'єктивним сприйняттям об'єктивної дійсності». З «об'єктивним» фото причина в тому, що воно дає нам вихоплений момент, а ми сприймаємо себе і добре знайомих людей у ​​комплексі, для решти нам достатньо кореляції, в чому наш мозок дока.

Все стає складніше, коли машини починають приймати рішення, що мають серйозні наслідки, причому без емоційного контексту та спільних цінностей, які у таких випадках використовують люди. Це була одна з ключових тем у статті, яку Генрі Кіссінджер (Henry A. Kissinger) нещодавно написав про наслідки ІІ для The Atlantic. Візьміть, наприклад, безпілотний автомобіль, який повинен у разі неминучої аварії вирішити – вбити батька чи дитину. Чи зможе така машина колись пояснити людям, чому вона робить той чи інший вибір? А якщо не потрібно обґрунтовувати дії машини людськими наслідками і з людської точки зору, то що станеться з нашою системою етики та справедливості? Як це вкласти у машину? Адже тоді нам треба буде відкинути наші емоції та стати на бік машини, подивитися на світ її очима. Чи спроможні ми на таке?

Подібний процес пройшов би легше та простіше, якби ми замінили штучне співчуття на людське. ІІ може наслідувати людські взаємодії, але з набагато вужчим розумінням того, що відбувається, ніж ми. Нам необхідно пам'ятати про це, коли вибираємо роль, яку ІІ має відігравати в управлінні процесами чи стратегіями. Емпатія, про яку ми говорили в цій частині статті стосовно машини, грає дуже вагому роль. Можливо, тому роботам-асистентам намагаються дати людську подобу та приємний голос (у псевдонаукових фільмах вони навіть навіщось їдять і не тільки).

При розробці згаданих у першій частині статті ігрових систем, в якій автор брав участь не лише як розробник електронної начинки, а й як дизайнер і один з ідеологів, ми зіткнулися з такою проблемою. Друга з наших машин, а це був уже 100%-ний робот (як належить, дзижчить і повертається), працювала ефективніше «живих» дилерів, не робила помилок, давала більший економічний ефект. Але популярнішим був змішаний варіант - частина гравців вибирала «живого» дилера, завдання якого було лише посміхатися і витягувати карту з черевика (роздавача гральних карт на гральному столі). В цьому випадку саме спрацьовувала емпатія, якою наша повністю роботизована система, як і система з генератором випадкових карт, апріорі не мала.

Система Duplex від Google може виглядати як така, що володіє емпатією, але ця емпатія суворо обмежена тим, що має відношення до поставленого завдання. Наприклад, до бронювання столика у ресторані. Duplex не навчений виявляти будь-які емоції поза заданого алгоритму чи перебудовувати свою поведінку з урахуванням конкретної ситуації. Якщо голос людини на іншому кінці телефонної лінії звучить недружелюбно та нервово, чи може Duplex спілкуватися з ним адекватно? Чи може він знайти спосіб розташувати людину до себе і змусити її заспокоїтися? Чи може він банально попросити знайти вільний столик у годину пік ресторану? Людське спілкування - це набагато більше, ніж просто ефективний обмін інформацією, і саме тут наслідки використання реальної та штучної емпатії стають особливо значущими.

Якщо ми передамо фундаментальні стратегічні рішення ІІ, то визначення вартості виробленого за його участю кінцевого продукту (інакше навіщо цей ІІ взагалі потрібен?) знижуватиметься з разючою швидкістю. Але ризик полягає в тому, що ІІ ігнорує інші елементи, які по-різному зачіпають людську свідомість, граючи на струнах людської душі, як та сама Ава з «Ex Machine» робила лише для досягнення чіткої мети.

Людський інтелект настільки сильний, тому що він не обмежений одним лише раціональним мисленням. Елементи свідомості дозволяють нам мати справу з непередбачуваністю та невизначеністю навколишнього світу. Вони дають нам можливість приймати рішення на основі спільних цінностей та мотивів, які резонують колективно, і знати, що правильно, навіть без потреби з'ясовувати, чому це так. Співчутливий людський інтелект здатний відчувати те, що він відчуває, щоб бути сумним або щасливим, - і він дозволяє цим почуттям впливати на свої судження та свою поведінку з іншими. Машина не могла б цього зробити, навіть якби захотіла, оскільки це переважно продукт нашої цивілізації. В інших цивілізаціях все могло б бути по-іншому - наприклад, нічого страшного не було б у тому, щоб з'їсти собі подібного «з великої поваги», як у Володимира Висоцького: «Хто уплете його без солі та без цибулі, той сильний, сміливий , Добрим буде ... ».

Щоб машина стала розумною, ми маємо дати їй моделі цінностей. Які? Ми знаємо свою шкалу і саме спроби її впровадження бачимо в мистецтві - літературі та кіно, але що з цього ми реально можемо дати машині, що вже «думає»? На нашу думку – нічого. Як виростити для неї дерево пізнання Добра і Зла і які на ньому мають бути плоди? Якщо ми підемо таким шляхом, то це приведе нас до реальної конфронтації, у машин з'явиться своя філософія, релігія і т. д. Єдине, з чим нам пощастило, - це із заповідями, але про це ми говоритимемо в останній частині цієї статті .

Цього року компанія "Яндекс" запустила голосового помічника "Аліса". Новий сервіс дозволяє користувачеві прослуховувати новини та погоду, отримувати відповіді на запитання та просто спілкуватися з ботом. "Аліса" іноді сміється, Іноді здається майже розумною і саркастичною, але часто не може розібратися, про що її запитують, і сідає в калюжу.

Усе це породило як хвилю жартів, а й новий виток дискусій розвитку штучного інтелекту. Новини про те, чого досягли розумні алгоритми, сьогодні приходять чи не щодня, а машинне навчання називають одним із найперспективніших напрямків, якому можна себе присвятити.

Щоб прояснити головні питання про штучний інтелект, ми поговорили з Сергієм Марковим, спеціалістом зі штучного інтелекту та методами машинного навчання, автором однієї з найсильніших вітчизняних шахових програм SmarThink та творцем проекту «XXII століття».

Сергій Марков,

фахівець із штучного інтелекту

Розвінчуючи міфи про ІІ

то що таке «штучний інтелект»?

Поняття «штучний інтелект» якоюсь мірою не пощастило. Виникло спочатку в науковому середовищі, воно згодом проникло у фантастичну літературу, а через неї - у поп-культуру, де зазнало цілої низки змін, обросло безліччю інтерпретацій і врешті-решт було цілком містифіковано.

Саме тому ми часто чуємо від нефахівців приблизно такі заяви: «ІІ не існує», «ІІ неможливо створити». Нерозуміння суті досліджень, що ведуть у сфері ІІ, легко призводить людей до інших крайнощів - наприклад, сучасним системам ІІ приписують наявність свідомості, вільної волі та секретних мотивів.

Спробуємо відокремити мух від котлет.

У науці штучним інтелектом називають системи, призначені на вирішення інтелектуальних завдань.

У свою чергу, інтелектуальне завдання – це завдання, яке люди вирішують за допомогою власного інтелекту. Зауважимо, що в даному випадку фахівці свідомо уникають визначення поняття «інтелект», оскільки до появи систем ІІ єдиним прикладом інтелекту був інтелект людський, і визначити поняття інтелекту на основі єдиного прикладу - те саме, що намагатися провести пряму через єдину точку. Таких прямих може виявитися скільки завгодно багато, отже, суперечка про поняття інтелекту можна було б вести століттями.

«сильний» та «слабкий» штучний інтелект

Системи ІІ поділяються на дві великі групи.

Прикладний штучний інтелект(також використовують термін «слабкий ІІ» або «вузький ІІ», в англійській традиції - weak/applied/narrow AI) - це ІІ, призначений для вирішення будь-якої однієї інтелектуальної задачі або їх невеликої множини. До цього класу відносяться системи для гри в шахи, го, розпізнавання образів, мови, прийняття рішення про видачу або невидачу банківського кредиту і так далі.

На противагу прикладному ІІ вводять поняття універсального штучного інтелекту(також «сильний ІІ», англійською - strong AI/Artificial General Intelligence) - тобто, гіпотетичного (поки що) ІІ, здатного вирішувати будь-які інтелектуальні завдання.

Часто люди, не знаючи термінології, ототожнюють ІІ з сильним ІІ, через це і виникають міркування в дусі «ІІ не існує».

Сильного ІІ справді поки що не існує. Практично всі успіхи, які ми спостерігаємо за останнє десятиліття в області ІІ, - це успіхи прикладних систем. Ці успіхи не можна недооцінювати, оскільки прикладні системи часом здатні вирішувати інтелектуальні завдання краще, ніж це робить універсальний людський інтелект.

Я думаю, ви помітили, що поняття ІІ – досить широке. Скажімо, усний рахунок - це теж інтелектуальне завдання, і це означає, що будь-яка машина буде вважатися системою ІІ. А як щодо рахунків? Абака? Антикитерського механізму? Справді, все це формально хоч і примітивні, але системи ІІ. Однак зазвичай, називаючи якусь систему системою ІІ, ми тим самим підкреслюємо складність задачі, що вирішується цією системою.

Цілком очевидно, що поділ інтелектуальних завдань на прості та складні – дуже штучне, і наші уявлення про складність тих чи інших завдань поступово змінюються. Механічна лічильна машина була дивом техніки в XVII столітті, але сьогодні людей, які з дитинства стикаються з куди складнішими механізмами, вона вже не здатна вразити. Коли гра машин у го або автомобільні автопілоти вже перестануть дивувати публіку, напевно знайдуться люди, які морщатимуться через те, що хтось відноситиме такі системи до ІІ.

«Роботи-відмінники»: про здібності ІІ до навчання

Ще одна кумедна помилка - неодмінна наявність у систем ІІ здатності до самонавчання. З одного боку, це зовсім не обов'язкова властивість систем ІІ: є безліч дивовижних систем, не здатних самонавчатись, але, тим щонайменше, вирішальних багато завдань краще людського мозку. З іншого боку, деякі люди просто не знають того, що самонавчання - властивість, які багато систем ІІ набули ще понад півсотні років тому.

Коли в 1999 році я писав свою першу шахівницю, самонавчання вже було абсолютно спільним місцем у цій галузі - програми вміли запам'ятовувати небезпечні позиції, підлаштовувати під себе дебютні варіанти, регулювати стиль гри, підлаштовуючись під суперника. Звичайно, тим програмам було ще далеко до Alpha Zero. Проте, навіть системи, які навчаються поведінці з урахуванням взаємодії коїться з іншими системами під час експериментів з так званому «навчання з підкріпленням», вже існували. Однак з незрозумілої причини деякі люди й досі думають, що здатність до самонавчання – це прерогатива людського інтелекту.

Машинне навчання, ціла наукова дисципліна, займається процесами навчання машин вирішення тих чи інших завдань.

Існує два великі полюси машинного навчання - навчання з учителем та навчання без вчителя.

При навчанні з учителемУ машини вже є кілька умовно правильних рішень для певного набору випадків. Завдання навчання у такому разі полягає в тому, щоб навчити машину на основі наявних прикладів приймати правильні рішенняв інших невідомих ситуаціях.

Інша крайність - навчання без вчителя. Тобто машину ставлять у ситуацію, коли правильні рішення невідомі, є лише дані у сирому, нерозміченому вигляді. Виявляється, і в таких випадках можна досягти певного успіху. Наприклад, можна навчити машину виявлення семантичних відносин між словами мови на основі аналізу дуже великого набору текстів.

Один із різновидів навчання з учителем - це навчання з підкріпленням (reinforcement learning). Ідея полягає в тому, що система ІІ виступає в ролі агента, поміщеного в деяке модельне середовище, в якому вона може взаємодіяти з іншими агентами, наприклад, з власними копіями, і отримувати від середовища деякий зворотний зв'язок через функцію винагороди. Наприклад, шахівниця, яка грає сама з собою, поступово підлаштовуючи свої параметри і тим самим поступово посилюючи власну гру.

Навчання з підкріпленням - досить широка область, у ній застосовують безліч цікавих методівпочинаючи від еволюційних алгоритмів і закінчуючи байєсовською оптимізацією. Останні досягнення в області ІІ для ігор пов'язані з посиленням ІІ в ході навчання з підкріпленням.

Ризики розвитку технологій: чи варто боятися «Судного дня»?

Я не належу до ІІ-алармістів, і в цьому сенсі я зовсім не самотній. Наприклад, творець стенфордського курсу з машинного навчання Ендрю Ин порівнює проблему небезпеки ІІ з проблемою перенаселення Марса.

Справді, у майбутньому цілком можливо, що люди колонізують Марс. Також ймовірно, що рано чи пізно на Марсі може виникнути проблема перенаселення, але не зовсім зрозуміло, чому ми маємо займатися цією проблемою вже зараз? Згодні з Ыном і Ян ЛеКун - творець згорткових нейронних мереж, і його шеф Марк Цукерберг, і Йошуа Беньо - людина, багато в чому завдяки дослідженням якої сучасні нейронні мережі здатні вирішувати складні завдання у галузі обробки текстів.

Щоб викласти мої погляди на цю проблему, знадобиться, мабуть, кілька годин, тому зупинюся лише на основних тезах.

1. НЕ МОЖНА ОБМЕЖУВАТИ РОЗВИТОК ІІ

Алармісти розглядають ризики, пов'язані з потенційною руйнівною дією ІІ, при цьому ігноруючи ризики, пов'язані зі спробою обмежити або навіть зупинити прогрес у цій галузі. Технологічна могутність людства зростає надзвичайно швидкими темпами, що призводить до ефекту, який я називаю «здешевленням апокаліпсису».

150 років тому при всьому бажанні людство не могло завдати непоправної шкоди ні біосфері, ні собі як виду. Для реалізації катастрофічного сценарію 50 років тому необхідно було б сконцентрувати всю технологічну міць ядерних держав. Завтра для здійснення глобальної техногенної катастрофи може вистачити і невеликий жменьки фанатиків.

Наша технологічна міць зростає значно швидше, ніж здатність людського інтелекту цю міць контролювати.

Якщо на зміну людському інтелекту з його забобонами, агресією, помилками і обмеженістю не прийде система, здатна приймати більш виважені рішення (будь то ІІ або, що я вважаю більш ймовірним, технологічно покращений і об'єднаний з машинами в єдину систему людський інтелект), нас може чекати глобальної катастрофи.

2. створення надінтелекту принципово неможливе

Існує ідея про те, що ІІ майбутнього обов'язково буде надінтелектом, що перевершує людей навіть сильніше, ніж люди перевершують мурах. Боюся в цьому випадку розчарувати і технологічних оптимістів - наш Всесвіт містить цілу низку фундаментальних фізичних обмежень, які, мабуть, унеможливлять створення надінтелекту.

Наприклад, швидкість передачі сигналу обмежена швидкістю світла, але в планківських масштабах з'являється невизначеність Гейзенберга. Звідси випливає перший фундаментальний ліміт - межа Бремерманна, що вводить обмеження на максимальну швидкість обчислень для автономної системи заданої маси m.

Інша межа пов'язана з принципом Ландауера, відповідно до якого існує мінімальна кількість теплоти, що виділяється при обробці 1 біта інформації. Занадто швидкі обчислення спричинять неприпустимий розігрів та руйнування системи. Насправді, сучасні процесори від ліміту Ландауера відокремлює менш ніж тисячократне відставання. Здавалося б, 1000 – це досить багато, проте ще одна проблема полягає в тому, що багато інтелектуальних завдань відносяться до класу складності EXPTIME. Це означає, що час, необхідне їх вирішення, є експоненційною функцією від розмірності завдання. Прискорення системи у кілька разів дає лише константний приріст інтелекту.

Загалом, є дуже серйозні підстави вважати, що надінтелектуального сильного ІІ не вийде, хоча, звісно, ​​рівень людського інтелекту цілком може бути перевищено. Наскільки це небезпечно? Скоріш за все, не дуже.

Уявіть собі, що ви раптово почали думати у 100 разів швидше за інших людей. Чи означає це, що ви легко зможете вмовити будь-якого перехожого віддати вам свій гаманець?

3. ми турбуємося зовсім не про те

На жаль, внаслідок спекуляцій алармістів на страхах публіки, вихованої на «Термінаторі» та знаменитому HAL 9000 Кларка та Кубрика, відбувається зміщення акцентів у сфері безпеки ІІ у бік аналізу малоймовірних, але ефектних сценаріїв. При цьому реальні небезпеки вислизають з уваги.

Будь-яка досить складна технологія, яка претендує на те, щоб зайняти важливе місце в нашому технологічному ландшафті, безумовно приносить із собою специфічні ризики. Безліч життів було занапащено паровими машинами - на виробництві, на транспорті і так далі - перш ніж були вироблені ефективні правила та заходи щодо забезпечення безпеки.

Якщо говорити про прогрес у галузі прикладного ІІ, можна звернути увагу на пов'язану з ним проблему так званого Цифрового таємного суду. Все більше і більше прикладних систем ІІ приймає рішення з питань, що стосуються життя та здоров'я людей. Сюди відносяться і медичні діагностичні системи, і, наприклад, системи, що приймають у банках рішення про видачу чи невидачу кредиту клієнту.

У той самий час структура використовуваних моделей, набори чинників та інші деталі процедури прийняття рішення приховані комерційної таємницею від людини, чия доля перебуває в кону.

Використовувані моделі можуть засновувати свої рішення на думках вчителів-експертів, які припускалися систематичних помилок або мали ті чи інші забобони - расові, гендерні.

ІІ, навчений на рішеннях таких експертів, сумлінно відтворюватиме ці забобони у своїх рішеннях. Зрештою, ці моделі можуть містити в собі специфічні дефекти.

Цими проблемами зараз мало хто займається, оскільки, звичайно, SkyNet, який розв'язує ядерну війну, це, безумовно, більш видовищно.

Нейросети як «гарячий тренд»

З одного боку, нейронні мережі - це одна з найстародавніших моделей, що застосовуються для створення систем ІІ. З'явилися спочатку внаслідок застосування біонічного підходу, вони досить швидко втекли від своїх біологічних прототипів. Винятком тут є лише імпульсні нейронні мережі (втім, доки знайшли широкого застосування у промисловості).

Прогрес останніх десятиліть пов'язаний з розвитком технологій глибокого навчання - підходу, при якому нейронні мережі збирають великої кількостішарів, кожен з яких побудований на основі певних регулярних патернів.

Крім створення нових нейромережевих моделей важливий прогрес було також досягнуто в галузі технологій навчання. Сьогодні нейронні мережі вчать вже не за допомогою центральних процесорів комп'ютерів, а з використанням спеціалізованих процесорів, здатних швидко проводити матричні та тензорні обчислення. Найбільш поширений на сьогоднішній день вид таких пристроїв – відеокарти. Втім, активно ведеться розробка ще більш спеціалізованих пристроїв для навчання нейромереж.

В цілому, безумовно, нейронні мережі на сьогоднішній день, - це одна з основних технологій у галузі машинного навчання, якою ми зобов'язані вирішенню багатьох завдань, які раніше вирішувалися незадовільно. З іншого боку, звичайно, слід розуміти, що нейронні мережі не є панацеєю. Для деяких завдань вони далеко не найефективніший інструмент.

Тож наскільки розумні нинішні роботи насправді?

Все пізнається в порівнянні. На тлі технологій 2000 року нинішні досягнення виглядають справжнім дивом. Завжди знайдуться люди, котрі люблять побрязкати. 5 років тому вони на повну тринделі про те, що машини ніколи не виграють у людей в го (ну або, принаймні, виграють дуже нескоро). Говорили про те, що машина ніколи не зможе намалювати з нуля картину, тоді як сьогодні люди практично не здатні відрізняти картини, створені машинами, від картин невідомих художників. Наприкінці минулого року машини навчилися синтезувати мову, практично не відмінну від людської, а останні роки від музики, створюваної машинами, не в'януть вуха.

Побачимо, що буде завтра. Я дивлюся на ці сфери застосування ІІ з великим оптимізмом.

Перспективні напрями: де розпочати занурення у сферу ІІ?

Я б порадив постаратися на гарному рівні освоїти один з популярних нейромережевих фреймворків і один з популярних у галузі машинного навчання мов програмування (найпопулярніша на сьогоднішній день зв'язка TensorFlow + Python).

Оволодівши цими інструментами та маючи в ідеалі міцну базу в галузі математичної статистики та теорії ймовірностей, слід направити свої зусилля в ту сферу, яка буде найцікавіша особисто вам.

Інтерес до предмета роботи - один із найважливіших ваших помічників.

Потреба у фахівцях з машинного навчання існує у найрізноманітніших галузях - у медицині, у банківській справі, у науці, на виробництві, тому сьогодні хорошому спеціалісту надано як ніколи широкий вибір. Потенційні переваги будь-якої з цих галузей мені видаються несуттєвими в порівнянні з тим, що робота приноситиме вам задоволення.