Вчені виступили проти виробництва зброї зі штучним інтелектом

"Штучний інтелект вже сьогодні перевершує людський у багатьох областях. Так, протягом багатьох років різні види штучного інтелекту перемагають чемпіонів всіляких ігрових турнірів, будь то шахи або покер. Такі досягнення можуть і не здаватися особливо вражаючими, але лише тому, що наші вимоги до дивного швидко адаптуються до прогресу ", - сказав філософ, представник Оксфордського університету Нік Бостром (Nick Bostrom).


Стівен Хокінг (Stephen William Hawking), Елон Маск (Elon Reeve Musk) і Стів Возняк (Stephen Gary Wozniak) разом з більш ніж тисячею висококваліфікованих фахівців у галузі штучного інтелекту і робототехніки підписали відкритий лист, що закликає заборонити виготовлення «автономної наступальної зброї».

Представники наукового та експертного співтовариства вважають, що автономна зброя становить серйозну загрозу для всього людства. Під автономними вони мають на увазі системи озброєння, здатні вибирати і вражати цілі без втручання людини, але не, наприклад, крилаті ракети або БПЛА, якими повністю керують люди, приймаючи за них рішення і призначаючи цілі.

Вчені побоюються, що зброя, здатна автоматично атакувати ціль без людського втручання, може стати «автоматом Калашникова завтрашнього дня» і призведе до нових війн. При цьому, на відміну від ядерної зброї, виготовлення озброєння на основі штучного інтелекту не вимагає дорогої і важкодоступної сировини. Таким чином, його легко і дешево запустять у масове виробництво всі великі військові держави. Причому, можливо, до цього залишилися навіть не десятиліття - роки. Далі ж - і це теж лише питання часу - автономна зброя неминуче опиниться в руках терористів, диктаторів, польових командирів. Адже воно, на думку авторів листа, якнайкраще підходить для дестабілізації націй, поневолення населення і виборчого знищення за ознакою етнічної приналежності.

«Так само, як більшість хіміків і біологів не відчувають ніякого інтересу до створення хімічної або біологічної зброї, - йдеться в листі, - більшість дослідників ШІ не мають ніякого інтересу до створення зброї на її основі».

Є багато способів використовувати ШІ так, щоб битви стали більш безпечними, особливо для цивільного населення, вважають експерти, які підписали лист, але це не вимагає створення нових інструментів для вбивства. Загалом штучний інтелект може принести людству чималу користь, але починати гонку ШІ-озброєнь - це погана ідея. Щоб запобігти їй, дослідники закликають повністю заборонити створення автономних наступальних озброєнь поза межами значущого людського контролю.