Чи може штучний інтелект бути дружнім до людини?

Магістральним напрямом розвитку науки у наш час є теорія штучного інтелекту. Ця теорія отримала практичне втілення у проектах з робототехніки. Наприклад, один з найдосконаліших сьогодні роботів ЛБІМО зразка 2014 року вміє пересуватися сходами, бігати, відповідати на запитання японською і англійською, танцювати під музику, запам’ятовувати обличчя людей і потім їх впізнавати тощо. Таким чином він вміє наслідувати життєдіяльність людини. Мало того, у деяких вміннях він навіть випереджає своїх творців. Так, ЛБІМО уже зараз може сприймати інформацію на слух від кількох джерел одночасно й відповідно реагувати на неї, чого людина зробити не може.

Оптимістично налаштовані науковці переконані, що рано чи пізно роботи навчаться імітувати (симулювати, наслідувати) й інші людські вміння: любити і сумувати, радіти, писати сонети, насолоджуватися прогулянкою парком, отримувати задоволення від споглядання заходу Сонця чи невимушеної розмови за філіжанкою кави. Але якщо роботи успадкують ці вміння, то чи не знайдеться серед них і таких, які будуть егоїстичними, жадібними, агресивними, підступними тощо? Чи не захочуть роботи поневолити людину, а то і знищити її, як суперника у боротьбі за владу? Тому не випадково, що у «Світовій декларації робототехніки» (Фукуока, Японія, 2004) уже заздалегідь визначений перелік етичних вимог до майбутніх роботів: «І. Очікування від наступного покоління роботів: 1. Наступне покоління роботів буде партнерами, які співіснуватимуть з людьми. 2. Наступне покоління роботів допоможе людині і фізично і психологічно. 3. Наступне покоління роботів сприятиме реалізації безпечного і мирного суспільства» [1]. Подібно міркує один із впливових фахівців із робоетики – американський учений, засновник Інституту сингулярності зі створення штучного інтелекту Елієзер Юдковський, який вважає, що штучний інтелект має бути дружнім до людини. Він пише: «Термін «дружній ШІ» стосується виробництва корисних для людини, не шкідливих для неї дій системами штучного інтелекту, які досягли здатності будувати реальні плани й досягати поставлених завдань» [2, с. 2]. Якщо ми допускаємо, що щось є дружнім, то це значить, що щось може бути і ворожим, або ж недружнім. Але що означає «дружній»? Там, де є дружба, там є безкорисливість, щирість, довіра, симпатія і багато інших якісних характеристик. Люди розуміють їх ціну, тому що відчували і їм протилежне. За визначенням, штучний інтелект має наслідувати інтелект людини, її поведінку, але бути кардинально іншим – бути «запрограмованим» на добрі вчинки, «мислити» лише позитивно. Начебто можна припустити, що якийсь інтелект є добрим, а якийсь поганим. На мою думку, в таких припущеннях автор відсікає поняття емоційної сфери. Дружність породжується не так інтелектом (розумом), як емоціями. Тому, якщо і буде створено робота, який зможе переживати позитивні емоції, то він також повинен буде розуміти і переживати негативні емоції.

Крім того, поняття людини за такого розуміння є надто узагальненим. Люди бувають різними. Одні з них добрі, інші – злі; принаймні ситуативно. Як має поводитися штучний інтелект з добрими людьми, – зрозуміло: по-дружньому. Але яку модель поведінки має вибудувати робот щодо злих людей? Бути дружніми до них, означає стати на їх бік. З другого боку, хто має визначити, який вчинок дружній, а який – ні? Іноді самі люди цього не розуміють. А коли мова заходить про програмування подібного роду речей, то з погляду технології справа взагалі видається наразі невирішуваною. Тому, на мою думку, запрограмованість лише на добро не більше, ніж утопія. Якщо і буде створено штучний інтелект за зразком людського, то його носії – штучні особистості – будуть не позбавлені людських вад і тим самим становитимуть небезпеку для людей. Створити істот тільки «дружніх» за суттю – неможливо.

Список використаних джерел

1. World Robot Declaration from International Robot Fair 2004 Organizing Office

2. Yudkowsky E. Creating Friendly AI 1.0: The Analysis and Design of Benevolent Goal Architectures / Eliezer S. Yudkowsky. – San Francisco : The Singularity Institute, 2001. – 278p.

Site Footer