Чого боїться сам розробник ІІ у своєму творінні

0
316
Чого боїться сам розробник ІІ у своєму творінні

Як людина, що займається дослідженнями штучного інтелекту, я часто стикаюся з думкою про те, що багато людей бояться ШІ і того, у що він може перетворитися. Насправді не дивно, якщо дивитися з позиції історії людства, при цьому звертаючи увагу на те, чим напихає нас індустрія розваг, що люди можуть боятися кібернетичного повстання, яке змусить жити нас на ізольованих територіях, а інших перетворить в «Матрицеподібний» вид людських батарейок.

І все-таки для мене, дивлячись на всі ці еволюційні комп’ютерні моделі, які я використовую в розробках ШІ, складно думати про те, що мої невинні, чисті як сльоза немовляти створення на екрані мого комп’ютера одного разу зможуть перетворитися на монстрів футуристичної антиутопії. Чи насправді мене можна назвати «руйнівником світів», як одного разу жалкував і говорив про себе Оппенгеймер після того, як очолив програму зі створення ядерної бомби?

Можливо, я б взяв таку славу, а може критики моєї роботи все-таки мають рацію? Може, мені дійсно пора припинити уникати питань про те, які страхи щодо штучного інтелекту є у мене самого, як у експерта в області ШІ?

Страх перед непередбачуваністю

Комп’ютер HAL 9000, став мрією наукового фантаста Артура Чарльза Кларка і втілений у життя кінорежисером Стенлі Кубриком у його стрічці «Космічна одіссея 2001 року», є відмінним прикладом системи, що дала збій-за непередбачених обставин.

У багатьох складних системах – Титаніку, космічному шатлі NASA і Чорнобильської ядерної електростанції – інженерам доводилося поєднувати між собою безліч компонентів. Можливо, архітекторам цих систем було чудово відомо, як кожен її елемент працює окремо, але вони недостатньо добре розуміли, як усі ці компоненти будуть працювати разом.

Результатом стали системи, які так ніколи до кінця не зрозуміли їх же творцями, що і призвело до відомих наслідків. У кожному разі – корабель потонув, два шаттли вибухнули, а майже вся Європа і частини Азії зіткнулися з проблемою радіоактивного забруднення – набір відносно невеликих проблем, але по випадковості сталися одночасно, створили катастрофічний ефект.

Я чудово можу собі уявити, як ми, творці ШІ, можемо прийти до аналогічних результатів. Ми беремо останні напрацювання та дослідження в когнивистике (наука про мисленні, — прим. ред), переводимо їх у комп’ютерні алгоритми і додаємо все це в існуючі системи. Ми намагаємося розробити ШІ без повного розуміння свого власного інтелекту і свідомості.

Такі системи, як Watson від IBM або Alpha від Google, являють собою штучні нейронні мережі, що володіють вражаючими обчислювальними можливостями і здатні справлятися з дійсно складними завданнями. Але поки що єдине, до чого призведе помилка в їх роботі, буде результатом програшу в інтелектуальній грі «Jeopardy!» або упущеною можливістю перемогти чергового самого кращого в світі гравця в настільну логічну гру Го.

Ці наслідки не носять світового характеру. Насправді найгірше, що може статися з людьми в цьому випадку, так це хтось програє деяку суму грошей на ставках.

Тим не менш архітектура ШІ стає все складніше, а комп’ютерні процеси — все швидше. Можливості ІЇ з часом будуть тільки збільшуватися. А вже це призведе нас до того, що ми почнемо покладати на ШІ все більше відповідальності, навіть незважаючи на зростаючі ризики непередбачених обставин.

Ми прекрасно усвідомлюємо, що «помилки – це частина людської природи», тому для нас буде просто фізично неможливо створити по-справжньому безпечну у всьому систему.

Страх перед неправильним використанням

Мене не дуже турбує непередбачуваність наслідків у роботі ШІ, який я розробляю, використовуючи для цього підхід так званої нейроэволюции. Я створюю віртуальні середовища і заселяю їх цифровими істотами, даючи їх «мізках» команди за рішенням завдань зростаючої складності.

З часом ефективність вирішення завдань цими істотами зростає, еволюціонує. Тих, хто справляється з завданнями краще, всіх відбирають для репродукції, створюючи на їх базі нове покоління. Через багато поколінь ці цифрові створення розвивають когнітивні здібності.

Наприклад, прямо зараз ми робимо перші кроки у розвитку машин до рівня виконання простих навігаційних завдань, прийняття простих рішень або запам’ятовування пари бітів інформації. Але скоро ми досягнемо розвитку машин, які зможуть виконувати більш складні завдання і будуть мати набагато більш ефективним загальним рівнем інтелекту. Нашої фінальної метою є створення людського інтелекту рівня.

У ході цієї еволюції ми постараємося виявити і виправити всі помилки і проблеми. З кожним новим поколінням машини будуть краще справлятися з помилками, порівняно з попередніми. Це підвищить шанси на те, що ми зможемо визначити всі непередбачені наслідки в симуляції і виключити їх ще до того, як вони зможуть реалізуватися в реальному світі.

Ще одна можливість, яку дає еволюційний метод розвитку, полягає у наділенні штучного інтелекту етикою. Цілком ймовірно, що такі етичні і моральні риси людини, як надійність і альтруїзм, є результатом нашої еволюції і чинником її продовження.

Ми можемо створити штучне середовище і наділити машини здібностями, що дозволяють їм продемонструвати доброту, чесність та емпатію. Це може стати одним зі способів переконатися у тому, що ми розробляємо більш слухняних слуг, ніж безжальних роботів-вбивць. Тим не менш, незважаючи на те що нейроеволюція може скоротити рівень непередбачених наслідків в поведінці ШІ, вона не може запобігти неправильне використання штучного інтелекту.

Як учений, я повинен дотримуватись своїх зобов’язань перед правдою і повідомляти про те, що виявив в рамках своїх експериментів незалежно від того, подобаються мені їх результати чи ні. Моє завдання полягає не в тому, щоб визначати, що мені подобається, а що ні. Важливо тільки те, що я можу оприлюднити свою роботу.

Страх перед неправильними соціальними пріоритетами

Бути вченим – не значить втратити людяність. Я маю на якомусь рівні знову знаходити зв’язок зі своїми надіями і страхами. Будучи морально і політично мотивованої особистістю, я повинен враховувати потенційні наслідки своєї роботи та її можливий вплив на суспільство.

Як вчені і як представники суспільства, ми до цих пір не прийшли до чіткої ідеї про те, чого саме хочемо отримати від ШІ і чим він повинен стати в підсумку. Частково це, звичайно, пов’язано з тим, що ми до цих пір до кінця не розуміємо його потенціал. Але все ж нам необхідно чітко усвідомити і вирішити, що ми хочемо отримати від дійсно просунутого штучного інтелекту.

Одна з найбільших сфер, на яку люди звертають увагу в розмові про ІЇ, – це працевлаштування. Роботи вже виконують за нас складну фізичну роботу, наприклад, збираючи і зварюючи між собою частини автомобільних кузовів. Але одного разу настане день, коли роботам доручать виконання когнітивних завдань, тобто їм доручать те, що раніше вважалося виключно унікальною здатністю самої людини. Самокеровані автомобілі зможуть замінити шофферів таксі; самоврядні літаки не будуть мати потребу в пілотах.

Замість того щоб отримувати медичну допомогу у пунктах невідкладної допомоги, заповненої завжди втомленим персоналом і докторами, пацієнти зможуть проводити обстеження і дізнаватися діагнози з допомогою експертних систем з моментальним доступом до всіх медичних знань. Хірургічні операції будуть проводитися неподверженними до втоми роботами, з ідеально «наметанной рукою».

Юридичні консультації можна буде отримати з всеохоплюючої правової бази. За порадами з інвестицій будемо звертатися до експертним системам ринкового прогнозування. Можливо, одного разу вся людська робота буде виконуватися машинами. Навіть мою роботу можна буде робити швидше завдяки використанню великої кількості машин, невпинно досліджують, як зробити машини ще розумнішими.

В реаліях нашого нинішнього суспільства автоматизація вже змушує людей покидати свої робочі місця, роблячи багатих власників таких автоматизованих машин ще багатшими, а інших – ще біднішими. Але це не наукова проблема. Це політична і социоэкономическая проблема, яку має вирішувати саме суспільство.

Мої дослідження цього не змінять, проте мої політичні підвалини, разом з людяністю, можливо, приведуть до обставин, при яких ИИ зможе перетворитися виключно корисну функцію, замість того щоб зробити розрив між одним відсотком світової еліти та іншими нами ще ширше.

Страх перед катастрофічним сценарієм

Ми підібралися до останнього страху, нав’язаному нам божевільним HAL 9000, Термінатором та будь-яким іншим злочинницьким сверхинтеллектом. Якщо ШІ продовжить розвиватися до тих пір, поки не перевершить людський інтелект, стане штучна сверхинтеллектуальная система (або набір таких систем) розглядати людину як непотрібного матеріалу? Як ми зможемо виправдати своє існування перед обличчям сверхинтеллекта, здатного робити і творити те, що не буде здатний жоден чоловік? Чи зможемо ми уникнути долі бути стертими з лиця Землі машинами, яких ми ж і допомогли створити?

Тому найважливіше питання в таких обставинах буде звучати так: навіщо ми будемо потрібні штучного сверхинтеллекту?

Якби така ситуація, я б, напевно, сказав, що я хороший чоловік, який навіть зробив внесок у створення цього сверхинтеллекта, перед яким зараз перебуваю. Я б звернувся до його співчуття і співпереживання, щоб сверхинтеллект залишив мене, такого милостивого і співчутлива, в живих. Я б також додав, що саме по собі різноманіття видів володіє цінністю і Всесвіт настільки великий, що існування людського виду в ній насправді досить незначно.

Але я не можу говорити за все людство, тому за нас усіх мені буде складно знайти вагомий аргумент. Просто, коли я дивлюся на нас всіх, я дійсно бачу, що ми багато чого зробили і робимо неправильно. У світі панує ненависть один до одного. Ми йдемо війною один на одного. Ми несправедливо розподіляємо їжу, знання і медичну допомогу. Ми забруднюємо планету. В цьому світі, звичайно, є безліч хороших речей, але, якщо поглянути на всі ті погані речі, що ми створили і продовжуємо творити, буде дуже складно підібрати аргумент на підтримку нашого подальшого існування.

На щастя, нам поки не доведеться виправдовувати своє існування. У нас ще є час. Від 50 до 250 років, в залежності від того, наскільки швидко буде розвиватися штучний інтелект. Ми, як вид, володіємо можливістю зібратися всім разом і знайти хороший відповідь на питання, чому сверхинтеллект не повинен буде стерти нас з лиця планети.

Буде дуже складно вирішити це питання. Адже говорити, що ми підтримуємо різноманіття та етнокультурні відмінності, і робити це – це зовсім різні речі. Як і говорити про те, що ми хочемо врятувати планету, і успішно з цим справлятися.

Всі ми, нехай то кожна окрема особистість або суспільство в цілому, повинні підготуватися до катастрофічного сценарію, використовуючи той час, щоб бути готовими показати і довести, чому наші люди повинні дозволити нам продовжити існувати. Або ж ми можемо просто продовжувати сліпо вірити, що такий розвиток подій неможливо, і просто припинити вести розмови на цю тему.

Однак незалежно від того, яку фізичну небезпеку може представляти для нас сверхинтеллект, не слід забувати, що представляти небезпеку він буде ще й політичну, а також економічну. Якщо ми не знайдемо способу підвищити наш рівень життя, то в кінцевому підсумку просто подпитаем капіталізм чорноробом штучним інтелектом, який буде служити лише жменьці вибраних, що володіють всіма засобами виробництва.

Оригінал даної статті був опублікований на сайті theconversation.com Арендом Хинтзе (Arend Hintze), доцентом кафедри інтегративної біології, комп’ютерних наук та інженерії Університету штату Мічиган

Оцініть статтю

НАПИСАТИ ВІДПОВІДЬ

Please enter your comment!
Please enter your name here