6 лютого 2025, 11:20

Крок у новий етап розвитку небезпечних технологій: Google скасовує заборону створення зброї за допомогою ШІ

Google зняв заборону використання ШІ для військових цілей, відкривши дорогу для створення технологій, які можуть загрожувати безпеці людей.

Крок у новий етап розвитку небезпечних технологій: Google скасовує заборону створення зброї за допомогою ШІ

Компанія Google зробила значну зміну у своїй політиці щодо штучного інтелекту, видаливши пункт про заборону розроблення технологій, здатних призвести до шкоди для людей, зокрема створення зброї. Експерти стурбовані можливими наслідками. Про це пише Bloomberg.

Компанія Alphabet Inc., материнська структура Google, нещодавно видалила зі своїх принципів роботи зі штучним інтелектом (ШІ) пункт про заборону розроблення зброї та інших технологій, які можуть завдати шкоди людям. 


Раніше у принципах ШІ компанії був розділ під назвою "Додатки ШІ, які ми не розроблятимемо", де зазначалися "технології, що завдають або можуть завдати загальної шкоди", зокрема і зброя.

Видалення пункту про "шкоду" може вплинути на тип роботи, який тепер виконуватиме Google, повідомила Маргарет Мітчелл, яка очолювала команду з етичного ШІ у Google і тепер є головним науковим співробітником з етики у стартапі Hugging Face.

"Видалення цього пункту стирає ту роботу, яку так багато людей у сфері етичного ШІ й активістських рухів зробили у Google, і що більш проблематично, це означає, що тепер Google, імовірно, буде працювати над впровадженням технологій, які можуть вбивати людей", - сказала вона.

Незважаючи на це, представники компанії наголошують, що в їхній роботі зі ШІ, як і раніше, враховуватимуть такі цінності, як свобода, рівність і повага до прав людини.

Джеймс Манійка, старший віцепрезидент компанії, та Деміс Хассабіс, генеральний директор Google DeepMind, у спільній заяві зазначили, що для розроблення АІ, що захищає людей, важлива співпраця з організаціями, які поділяють ці цінності.

Однак це рішення загалом уже викликає занепокоєння від використання ШІ у небезпечних і потенційно смертоносних цілях.

Як раніше Dialog.UA повідомляв, фахівці Microsoft виявили, що особи, пов'язані з китайським чат-ботом DeepSeek, крали великий обсяг даних за допомогою інтерфейсу OpenAI.

Також, нагадаємо, штучний інтелект самостійно розробив ракетний двигун.

Автор: Светлана Романенко

Останні новини