5 страшних речей, які штучний інтелект навчився робити самостійно

289


В науковій фантастиці штучний інтелект став лякає людей темою ще до того, як він з’явився в реальності. Але, хоча роботи-гуманоїди все ще знаходяться в стадії розробки, вдосконалення штучного інтелекту планомірно йдуть вперед. І це починає бентежити.
Штучний інтелект навчився байдуже ставитися до роботи, а потім брехати про успіхи
Приємно уявити, що ми можемо уникнути науково-фантастичного кліше про кровожерливого вченого, кричущого на шматок металу: «Але… але я створив тебе! Я – Твій Творець!». Але навіть якщо ШІ і не стане насміхатися над нами, він все одно навчається полегшувати собі життя так, щоб супервайзер цього не помічав.
Один із штучних інтелектів був створений за проектом дослідницької групи зі Стенфорда і Google. Вони використовували нейронну мережу для перетворення аерофотознімків в карти, і ІІ був дуже гарний у цій своїй роботі. Навіть… дуже гарний. До тих пір, поки дослідники не перевірили дані і виявили, що ШІ їх обманював. Вони хотіли, щоб він створив нову карту, засновану на аэрофотоснимках, і оцінювали ІІ по тому, наскільки близько особливості карти відповідають фотографіям. Але замість того щоб дійсно побудувати нову карту, ІІ потихеньку скопіював дані з фотографій… і зробив це так, що людям непросто було це помітити.
Тут питання скоріше технічний, але, по суті, це було еквівалентом того, як якщо б студент-мистецтвознавець сказав, що він намалювали автопортрет, коли насправді просто відредагував селфи в Photoshop, фото виглядало як мазки пензля. Щоб пояснити вищесказане, процитуємо статтю TechCrunch: «Деталі аэрокарты таємно записуються фактичні візуальні дані карти вулиць: тисячі крихітних змін кольору, які людське око не помітив би, але які комп’ютер може легко виявити… Машина виявилася недостатньо розумна, щоб виконати дійсно складну роботу по перетворенню цих складних типів зображень один в одного, і знайшла спосіб обману, який люди погано розпізнають».
Звичайно, це не означає, що ІІ мав лихі наміри або що він хоча би здатний мати їх. Просто він з’ясував, як простіше отримати результат, який просили люди.
При будь-якій можливості вони знаходять способи використовувати «найкоротший шлях»
Було проведено дослідження за участю ІІ, завданням якого було приземлення моделі літака з найменшими зусиллями. М’яка посадка була виконана на «відмінно», і ИИ повинен був запам’ятати, як отримувати цю оцінку. Що тут могло піти не так?
Що ж, ІІ зрозумів, що він може обдурити, просто розбивши проклятий літак, якщо зареєструє зусилля, настільки велике, що воно буде перезавантажити систему, і це буде зареєстровано як посадка з нульовим ударом. Важливий кінцевий результат, вірно?
Інший приклад включає в себе Q*Bert, стару аркадну гру, в якій гравці повинні стрибати по кубиках, складеним у вигляді піраміди, тікаючи від поганих хлопців. Дослідники хотіли з’ясувати, чи зможе ІІ навчитися новим способам виграти в цю гру за допомогою власної еволюції. Чесно кажучи, він зробив це… виявивши приховану помилку в грі. Замість того, щоб грати, він просто використав цю помилку, щоб кожен раз стає переможцем.
Так, може здатися, що ШІ нарешті засвоїв основну людську рису: досягати мети найбільш простими шляхами. Та коли люди починають до нього чіплятися з проханнями щось зробити, він просто видає той результат, який просили.
ІІ вчиться бути агресивною, щоб досягати своїх цілей
Звичайно, в наші дні дослідження з участю ШІ не відносяться до розряду тих, які «нададуть Скайнету доступ до ядерних кодами». Дослідники часто вивчають створені ними ж ШІ, змушуючи їх годинами грати у відеоігри і дозволяючи їм виявляти своє злегка тривожне поведінку в безпечному середовищі. Залишається тільки екстраполювати наслідки цього для реального світу у власній уяві.
Це підводить нас до того часу, коли дослідники Google розробили гру в стилі Atari, в якій ІІ було доручено збирати «яблука» за очки. Як весело! Так, і в грі можна було стріляти один в одного променями, які тимчасово видаляли з гри інших учасників. І, як ви можете здогадатися, коли кількість яблук зменшилось, ІІ повністю переключилися на стрілянину один в одного. Ей, це всього лише логічно, адже вірно?
Не те, щоб боти були нездатні співпрацювати для більшого блага. Вони виразно це вміють. У наступній грі-симуляторі, в якій вони зрозуміли, що співпраця полегшує полювання за здобиччю, вони стали союзниками.
Команда з Google створила гру, схожу на описану вище, у якій два окремих ІЇ (виступаючі в ролі волков) переслідували бегающую по екрану точку, в стилі Pac-Man. Обидва гравця були винагороджені, коли вони на пару загнали мета в кут. Це означає, що коли це в їхніх інтересах, ІІ здатні навчитися командній роботі. І знаєте, що вони зробили, коли самостійно розібралися в користь співробітництва, підвищує їх шанси отримати «здобич»?
Так, вони навчилися працювати разом! І все, що потрібно для цього – навчити їх, що це необхідно для перемоги над спільним ворогом.
Вони навчилися брехати, щоб отримувати те, що хочуть
Facebook, який до цього вже створив одну руйнує цивілізацію програму, теж підключився до ігор з ІІ. Метою одного з проектів було створення персональних ШІ, які виходили б в Інтернет і торгувалися замість нас. Це одне із завдань, які люди знаходять стресовими і неприємними, тому було б непогано передоручити це машині. До цього моменту звучить все непогано.
Отже, надаючи машин базове програмне забезпечення для самонавчання, програмісти хотіли лише подивитися, чи зможуть боти самостійно освоїти навички, необхідні їм для успішного ведення переговорів. Дослідники зробили перевірку на людях, які навіть не знали, що вони взаємодіють з ІІ. Боти дуже швидко освоїли свою задачу. Насправді вони домовлялися про вигідних угодах не довше, ніж люди. Яким чином? З допомогою брехні.
Хоча дослідники з Facebook не програмували ботів на брехню (вони хотіли уникнути помилок, які вони допустили при створенні Марка Цукерберга), програма швидко засвоїла те, що продавці знали з давніх-давен: брехня найбільш прибуткова. «Вибачте, я не можу знизити ціну, у мене є інші покупці в черзі!»
Потім команді довелося повністю відфільтрувати код – несподівано боти створили власну мову і стали спілкуватися на ньому. Так, тільки уявіть, що одного разу ваші Siri і Алекса почнуть домовлятися за вашою спиною мовою, яку розуміють тільки вони.
Творці іноді навіть не знають, як це працює
Я не хочу віддаватися страху. Технологічні панікери через десятиліття завжди виявляються ідіотами (або майже завжди). Проблема полягає в тому, що за своєю природою ИИ повинен сам мислити, виходити за межі свого первісного задуму. Є причина, з якої наукова фантастика була сповнена застережних оповідань про небезпеку цього, вони йдуть у минуле майже на сторіччя. Тому, коли черговий проект ІІ перевершує очікування, присутній лякаючий усіх момент: вчені не впевнені, що вони розуміють, як ИИ це робить.
Одним з прикладів є використання ІІ, відомого як Deep Patient, для аналізу даних медичних карт приблизно 700000 пацієнтів у нью-йоркській лікарні Маунт-Синай. ІІ виявився дуже талановита в передбаченні появи різних хвороб. Особливо він виявився кваліфікований прогнозуванні можливості і термінів розвитку шизофренії.
Для справжніх лікарів передбачення настання хвороб є складним завданням. Лікарі – не екстрасенси, тому просто чудово, що Deep Patient справляється з цим. Але у дослідників немає ніяких ідей щодо того, яким чином ШІ навчив сам себе видавати такі прогнози. За словами одного дослідника, що бере участь у проекті, «ми можемо побудувати таку модель, але ми не розуміємо, як вона працює».
Отже, знову ж, немає причин боятися всього штучного інтелекту. Але можливо, скоро він так само таємничо передбачить і нашу смерть – способом, який ніхто не розуміє. І це все.
Спеціально для читачів мого блогу Shnyagi.Net – по статті cracked.com