"1"

У минулому році знаменитий фізик-теоретик Стівен Хокінг заявив, що вдосконалення штучного інтелекту стане «або кращою, або гіршою подією для всього людства». Всі ми дивилися «Термінатора» і всі ми чудово уявляємо, яким апокаліптичним пеклом може стати наше існування, якщо така маюча самосвідомість ШІ-система, як «Скайнет», одного разу вирішить, що людства вона більше не потребує. І останні результати роботи нової ШІ-системи від компанії DeepMind (належить Google) лише в черговий раз нагадують нам про необхідність бути вкрай обережними при виробництві роботів майбутнього.

У дослідженнях, що проводилися в кінці минулого року, ШІ від DeepMind знайшов і продемонстрував можливість свого навчання незалежно від того, що закладено в його пам’ять, а ще переміг кращих в світі гравців в логічну гру го. Крім цього, він удосконалював свої навички в читанні по губах та імітуванні людського голосу.

В рамках же останніх випробувань системи дослідники перевіряли «її прагнення» до співпраці. Тести показали, коли ШІ DeepMind «відчуває», що ось-ось програє, то для уникнення програшу він починає вибирати нові і «вкрай агресивні» стратегії. Команда Google провела з ШІ 40 мільйонів сесій в простій комп’ютерній грі Gathering, де гравцю було потрібно зібрати якомога більше потрібних фруктів. ШІ DeepMind керував двома «гравцями-агентами» (синім кубиком і червоним кубиком). Інженери Google дали системі задачу влаштувати змагання між «агентами» і зібрати стільки віртуальних яблук (зелених квадратиків), скільки вийде.

До часу, поки «агенти» могли без проблем збирати фрукти, наявні у великій кількості, все йшло гладко. Але як тільки запас яблук скорочувався, поведінка «агентів» ставала «агресивною». Вони стали активніше використовувати засіб (лазерний промінь), який допомагав вибити противника за ігровий екран і потім самому зібрати всі яблука:

Що цікаво, за вибивання противника з поля за допомогою лазерного променя ніякої додаткової нагороди не пропонувалося. Вибитий супротивник лише деякий час знаходиться за межами екрану, в той час як більш успішний противник мав можливість безперешкодно зібрати побільше віртуальні яблука.

Якби «агенти» не використали лазерні промені, то теоретично кількість зібраних ними яблук була б однаковою. Це в принципі і відбувалося, коли в якості «агентів» використовувалися більш низькорівневі і «менш інтелектуальні» варіанти DeepMind. Більш агресивна поведінка, шкідництво і жадібність стали проявлятися тільки тоді, коли команда Google стала використовувати більш складні форми DeepMind.

Коли дослідники використовували в якості «агентів» простіші мережі DeepMind, то між ними зазначалася наявність «атмосфери більш доброзичливого співіснування на ігровому полі». Однак, коли управління агентами передавалося все більш складним формам мереж, ШІ ставав агресивнішим і став намагатися заздалегідь вибити опонента з ігрового поля, щоб першим швидше дістатися до левової частки видобутку з віртуальних яблук. Вчені Google припускають, що чим розумніший «агент», тим він ефективніше здатний навчатися, адаптуватися до умов середовища і доступних методів, і в кінцевому підсумку приходити до використання найбільш агресивної тактики для перемоги.

«Ця модель показує, що результатом навчання та адаптації до умов навколишнього середовища є прояв деяких аспектів, властивих людській поведінці», – говорить Джоель З. Лейбо, один з дослідників, які проводили цей експеримент.

«Менш агресивна поведінка проявлялося тільки при навчанні і знаходженні в безпечному середовищі, з меншою ймовірністю наслідків після тих чи інших дій. Жадібність же, в свою чергу, відбивалася в прагненні обігнати суперника і самостійно зібрати всі яблука».

Після «збору врожаю» DeepMind запропонували зіграти в іншу гру, під назвою Wolfpack. Цього разу в ній були присутні відразу три ШІ-агенти: два грали роль вовків, а третій – роль здобичі. На відміну від гри Gathering, нова гра всіляко сприяла співпраці між вовками. По-перше, так легше зловити здобич, а по-друге, якщо обидва «вовки» знаходилися поруч із загнаної здобиччю, вони обидва отримували якусь нагороду, в незалежності від того, хто саме її спіймав.

«Ідея полягає в тому, що здобич може бути небезпечною. Крім того, може самотній вовк і здатний її загнати, але є ризик її втрати в результаті нападу падальщиків», – пояснює команда.

«Але якщо обидва вовки заганяють здобич разом, то вони здатні краще її захищати від падальщиків і завдяки цьому отримують підвищену нагороду».

У загальному і цілому з гри Gathering ШІ DeepMind усвідомив, що агресія і егоїзм є найбільш ефективними стратегіями для отримання потрібного результату в конкретно взятому середовищі. З Wolfpack та ж система зрозуміла, що співпраця, на відміну від індивідуальних спроб, може стати ключем до більш цінної нагороди в певних ситуаціях. І хоча описані вище тестові середовища є лише елементарними комп’ютерними іграми – основний посил зрозумілий вже зараз. Візьміть різні ШІ, що володіють конкуруючими інтересами в реальних ситуаціях, помістіть в одне середовище, і, можливо, якщо їх завдання не компенсуються спільною метою, результатом може стати справжня війна. Особливо, якщо людина, як одна з ланок у досягненні цієї мети, буде виключена.

Як приклад просто уявіть собі світлофори, керовані ШІ, і безпілотні автомобілі, які намагаються самостійно знайти найшвидший маршрут. Кожен виконує свої завдання з метою отримання найбільш безпечного і найбільш ефективного результату для суспільства.

Незважаючи на «дитячі» роки DeepMind і відсутність якого б то не було стороннього критичного аналізу його можливостей, результати його випробувань наводять на такі думки: навіть якщо ми їх і створюємо, це зовсім не означає, що в роботах і ШІ-системах буде автоматичним чином закладено прагнення ставити наші людські інтереси вище їх власних. Тому нам самим необхідно «закладати доброзичливість» в природу машин і передбачити будь-які «лазівки», які можуть дозволити їм дістатися до тих самих лазерних променів.

Одна з основних тез ініціативної групи OpenAI, спрямованої на вивчення питань етики штучного інтелекту, якось пролунала в 2015 році в такий спосіб:

«Сьогоднішні ШІ-системи мають дивні, але вузькоспеціалізовані можливості. І найімовірніше, ми ще довгий час не будемо їх стримувати в своєму вдосконаленні. Принаймні до тих пір, поки їх можливості у вирішенні практично кожного інтелектуального завдання не стануть перевершувати людські. Складно уявити, який саме рівень користі зможе принести ШІ людського рівня для суспільства, так само, як і складно уявити, якої шкоди він зможе завдати суспільству при недбалому ставленні до його створення і використання».

Нагадаємо також, що штучний інтелект DeepMind отримав «прискорювач» процесу навчання.

Коментарі закрито.

Поділитися

У Дніпрі відкрили першу «розумну» зупинку

На Набережній Перемоги було відкрито першу в Дніпрі високотехнологічну зупинку громадського транспорту. Будову обладнано безкоштовним Wi-Fi, USB-портами для підзарядки мобільних пристроїв, обігрівачами UFO, а також камерами відеоспостереження для того, щоб за всім ці стежити. Підлога зупинки при цьому вимощена спеціальною тактильною плиткою, яка повинна допомогти орієнтуватися людям зі слабким зором. Як розповів мер Дніпра Борис Філатов […]

Xiaomi Mi5S можуть оснастити подвійною камерою і зігнутим дисплеєм

Завтра, 27 вересня, компанія Xiaomi проведе презентацію, на якій буде представлено новий флагманський смартфон Mi5S і, можливо, Mi5S Plus. Про флагман вже зараз відомо досить багато інформації, при цьому в мережі з завидною регулярністю продовжують з’являтися нові витоки. Наприклад, в соціальній мережі Weibo були знайдені два тізера Mi5S, на яких показаний силует смартфону з передньої […]

Mophie представила модульні чохли для iPhone 7/Plus

Модульність – прекрасне рішення. Частини таких аксесуарів подібні до змінних об’єктивів фотоапарату. Mophie розробила симпатичний чохол-конструктор для «сімки». Інновацій немає, зате зручно. До магніту на задній кришці чохла кріпляться накладки: акумулятор, гаманець-книжка або кардхолдер. Ціна чохла без накладок – $40. Накладки купуються окремо за $10. Але навряд, пластиковий чохол з магнітною кришкою виправдовує вартість, адже покупець платить […]