Працівники Google і спільнота дослідників ШІ проти співпраці з Міноборони США в проекті Maven

Військовий дрон, який використовується США в розвідці.


Працівники Google закликають керівництво компанії припинити співпрацю з Міністерством оборони США з приводу проекту Maven, в якому штучний інтелект використаний для визначення військових цілей на відео, знятому дронами. Майже 4000 осіб підписали петицію з проханням переглянути етичні зобов'язання компанії, і близько дюжини співробітників звільнилися, визнавши це моральним обов'язком.

У березні ми публікували переклад статті Грегорі К. Аллена (Gregory C. Allen), співробітника Центру нової американської безпеки (Center for a New American Security). У ній він розповідає про запущений у квітні 2017-го проект Maven, над яким Google працює у співпраці з Міністерством оборони США. Проект використовує алгоритми штучного інтелекту, щоб полегшити роботу аналітиків з виявлення людей і машин, пов'язаних з терористичними діями, на відео з дронів, що знімають ІДІЛ. Аллен підкреслює позитивні сторони проекту - вдалося досягти співпраці між ВПК і професіоналами в галузі високих технологій, причому ця співпраця для благих цілей - боротьби з тероризмом. Він також згадує про слабкий бік проекту - етичні питання використання ШІ в даній сфері, які належить вирішити на наступних стадіях розвитку проекту.

Вже тоді, в березні, були чутні і менш оптимістичні думки - співробітники Google висловлювали скепсис з приводу проекту в обговоренні з колегами. У квітні цей скепсис отримав вираз у петиції, адресованій виконавчому директору Google Сундару Пічаї (Sundar Pichai), яку підписали близько 4000 співробітників. Працівників підтримала спільнота дослідників ШІ в особі Міжнародного комітету з контролю за роботизованими системами озброєнь (International Committee for Robot Arms Control, ICRAC) - у відкритому листі на підтримку співробітників Google (опубліковано в понеділок і отримало до теперішнього моменту близько 700 підписів). У листі та петиції виділяється кілька основних мотивів:

  • Не можна перекладати відповідальність за свою діяльність на третій бік. Якщо Google зараз обіцяє, що буде використовувати технологію «з розумом», то ніхто не гарантує, що далі ця технологія не буде використана третьою стороною для створення безпілотних бомбардувальників, які будуть без допомоги аналітиків ідентифікувати цілі (наприклад, людей) і вражати їх. Не можна довіряти ШІ визначати, хто є терористом, а хто ні, треба цінувати людські життя.
  • Google, співпрацюючи з Міністерством оборони, порушує власний негласний принцип Don't be evil (не будь злом). Довіряючи компанії дані про своє особисте життя, серед яких інформація про переміщення, фотографії, події в календарі, люди припускають, що ці дані не будуть використані їм на шкоду. Теоретично, ці дані можна використовувати в комбінації з відеозаписами з дронів, щоб «ефективніше боротися з тероризмом». Гарантії, що хтось не спробує це зробити - немає. Довіра людей накладає велику відповідальність на компанію. Якщо Google буде продовжувати співпрацю з Міноборони США, вона втратить авторитет, втратить співробітників і в цілому програє.
  • Компанія почала співпрацю за проектом, не провівши публічне обговорення ініціативи, тому вона буде нести відповідальність за будь-яке застосування розробленої технології, а її діяльність за проектом буде суперечити міжнародному законодавству і законам США.

Співробітники вимагають негайно згорнути проект і підписати офіційний документ, який би підтверджував, що Google і її дочірні компанії ніколи не будуть створювати технології для ведення військових дій. Крім вимог, озвучених у петиції, у відкритому листі дослідники ШІ вимагають ввести заборону на безпілотну зброю.

Коментарів від Сундара Пічаї досі не надійшло, і до теперішнього моменту, як повідомляє Gizmodo, з етичних причин, з компанії звільнилися близько дюжини співробітників.