Комп’ютер-суддя: чому насправді потрібно побоюватися ШІ

Глава підрозділу штучного інтелекту Google Джон Джаннандреа впевнений, що загрожують людству зовсім не роботи-вбивці. Але від цього не легше

Керівник напряму, який займається розвитком штучного інтелекту Google, не боїться супер-інтелектуальних роботів-вбивць. Джон Джаннандреа стурбований небезпекою, яка може ховатися усередині алгоритмів машинного навчання, які використовуються для мільйонів прийняття рішень кожну хвилину.

«Реальна проблема небезпеки полягає в тому, що якщо ми дамо цим системам необ’єктивні дані, вони стануть упередженими», — сказав Джаннандреа напередодні недавній конференції Google, присвяченої взаєминам між людьми і системами ШІ.

Комп'ютер-суддя: чому насправді потрібно побоюватися ШІ

Проблема упередженості машинного навчання може стати більш значущою, оскільки технології починають застосовуватися в таких важливих областях, як медицина і право, і все більше людей, що не володіють глибокими технічними знаннями, повинні їх застосовувати. Деякі експерти попереджають, що упередженість алгоритмів вже широко поширена в багатьох галузях, і що майже ніхто не намагається її ідентифікувати або виправити.

«Важливо дотримуватися прозорість щодо даних, які ми використовуємо для навчання, і шукати в них приховані упередження, інакше ми будемо створювати упереджені системи, — додає Джаннандреа. — Якщо хтось намагається продати вам чорний ящик для прийняття медичних рішень, і ви не знаєте, як він працює і які дані були використані для навчання, то я б не став йому довіряти».

Моделі машинного навчання у вигляді незрозумілого приладу вже роблять серйозний вплив на життя окремих людей. Система під назвою COMPAS, створена компанією Northpointe, нібито може передбачати ймовірність повторного вчинення засудженими злочину і використовується деякими суддями, щоб вирішити, чи надавати укладеним умовно-дострокове звільнення. Принцип роботи COMPAS зберігається в секреті, але дослідження, проведене ProPublica, показало, що модель може бути упередженою проти меншин.

Однак публікація відомостей про даних або використаний алгоритм не вирішить проблему. Багато найпотужніші нові методи машинного навчання настільки складні і непрозорі, що не піддаються розумінню навіть при ретельному вивченні. Тому дослідники шукають способи, як ці системи могли б надавати інженерам і кінцевим користувачам спрощене пояснення їх внутрішнього механізму.

У Джаннандреа є вагомі підстави говорити про потенційної схильності ШІ до упередженості. Google входить в число декількох великих компаній, які рекламують можливості ШІ своїх хмарних обчислювальних платформ для всіх видів бізнесу. Ці хмарні системи машинного навчання набагато простіше у використанні, ніж базові алгоритми. Це допоможе зробити технологію більш доступною, але також більш вразливою для виникнення упереджень. Важливо буде пропонувати навчальні посібники та інструменти, щоб допомагати менш досвідченим ученим і інженерам даних визначати і усувати упередженість з даних для навчання.

Ряд спікерів, запрошених на конференцію, організовану Google, також підкреслили проблему упередженості. Дослідник Google Майя Гупта розповіла про свої зусилля щодо створення більш прозорих алгоритмів у складі команди, відомої як GlassBox. А професор Університету Іллінойсу Каррі Карахалиос представив дослідження, в яких підкреслювалося, наскільки складно визначити упередженість навіть в самих звичайних алгоритмах. Карахалиос продемонстрував, що користувачі зазвичай не розуміють, як Facebook фільтрує повідомлення, що показуються в стрічці новин. Це здається нешкідливим, але це точна ілюстрація того, наскільки складно зрозуміти деталі роботи алгоритму.

Алгоритм стрічки Facebook може, безумовно, визначати суспільне сприйняття соціальних взаємодій і великих подій. Інші алгоритми, можливо, вже непомітно викривляють види медичної допомоги, які отримує людина, чи відношення до нього в системі кримінального правосуддя. Це набагато важливіше, ніж роботи-вбивці, принаймні на даний момент.

В останні роки Джаннандреа був голосом розуму серед більш фантастичних побоювань відносно ШІ. У ЗМІ широко висвітлювалося, наприклад, вислів Ілона Маска, який заявив, що ШІ являє собою велику загрозу, ніж Північна Корея, і може призвести до третьої світової війни.

«Я не згоден з припущенням про те, що ми перейдемо до якоїсь системі, яка перевершить людину, — говорить Джаннандреа. — Я розумію, чому люди стурбовані цим питанням, але думаю, що йому приділяється занадто багато уваги. Я просто не бачу технологічного підстави, чому це було б неминуче».

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *