Хокінг назвав штучний інтелект найбільшою помилкою людства

Хокінг назвав штучний інтелект найбільшою помилкою людства

Британський фізик Стівен Гокінг, у своїй статті, розповів, що недооцінка загрози з боку штучного інтелекту може стати найбільшою помилкою в історії людства.


Співавторами цієї роботи є професор комп'ютерних наук з Каліфорнійського університету Стюарт Расселл і професори фізики Макс Тегмарк і Френк Вільчек з Массачусетського технологічного інституту. У статті вказується на деякі досягнення в галузі штучного інтелекту, відзначаючи самоврядні автомобілі, голосового помічника Siri і суперкомп'ютер, який переміг людину в телевізійній грі-вікторині Jeopardy.

Як сказав Хокінг газеті Independent:

Всі ці досягнення тьмяніють на тлі того, що нас чекає в найближчі десятиліття. Успішне створення штучного інтелекту стане найбільшою подією в історії людства. На жаль, воно може виявитися останнім, якщо ми не навчимося уникати ризиків.

Вчені кажуть, що в майбутньому може статися так, що машини з нелюдським інтелектом будуть самовдосконалюватися і ні що не зможе зупинити цей процес. А це, в свою чергу, запустить процес так званої технологічної сингулярності, під якою мається на увазі надзвичайно швидкий технологічний розвиток.

У статті наголошується, що така технологія перевершить людину і почне керувати фінансовими ринками, науковими дослідженнями, людьми і розробкою зброї, недоступної нашому розумінню. Якщо короткостроковий ефект штучного інтелекту залежить від того, хто ним керує, то довгостроковий ефект - від того, чи можна буде ним керувати взагалі.

Складно сказати, які наслідки для людей може спричинити створення штучного інтелекту. Хокінг вважає, що цим питанням присвячено мало серйозних досліджень за межами таких некомерційних організацій, як Кембриджський центр з вивчення екзистенційних ризиків, Інститут майбутнього людства, а також науково-дослідні інститути машинного інтелекту і життя майбутнього. За його словами, кожен з нас повинен запитати себе, що ми можемо зробити зараз, щоб уникнути гіршого сценарію розвитку майбутнього.