ШІ становить серйозну загрозу вимирання для людства

Фото — istockphoto.com

Видатні діячі в галузі штучного інтелекту (ШІ) б’ють на сполох щодо потенційних небезпек, пов’язаних з розвитком власних технологій, порівнюючи ризики, які несе ШІ, з пандеміями та ядерними війнами. У відкритому листі, який незабаром буде опублікований Центром безпеки ШІ, понад 350 лідерів галузі, наголосили на нагальній необхідності усунення цих ризиків для людства.

Джерело: New York Times

ШІ становить серйозну загрозу вимирання для людства

У листі стверджується, що зниження ризику вимирання, спричиненого штучним інтелектом, має стати глобальним пріоритетом, ставлячи його в один ряд з іншими основними суспільними ризиками.

Серед підписантів листа – такі впливові фігури, як Сем Альтман, голова OpenAI, Деміс Хассабіс, голова Google DeepMind, Даріо Амодей, голова Anthropic, а також Джеффрі Хінтон і Йошуа Бенгіо, лауреати премії Тьюринга, які вважаються піонерами в галузі сучасного ШІ. У списку відсутній Ян Лекун, який очолює дослідження ШІ в компанії Meta.

Зростаюче занепокоєння громадськості навколо розвитку ШІ посилило ці побоювання. Дехто переймається, що системи штучного інтелекту, включно з такими платформами, як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди.

Крім того, побоювання викликає потенційна втрата мільйонів робочих місць у зв’язку з впровадженням ШІ в Європі та США. Незвично, але самі лідери індустрії визнають ризики, пов’язані з їхніми власними творіннями, і виступають за суворе регулювання з боку керівних органів.

Симпатики ШІ не вірять застереженням

Водночас скептики заперечують потенційну небезпеку ШІ. Вони заявляють, що технологія штучного інтелекту все ще перебуває в зародковому стані і не здатна становити відчутну загрозу для людства. Натомість, на їх думку, слід зосередитися на вирішенні нагальних проблем, таких як упередженість і помилковість відповідей ШІ.

Однак інші вважають, що системи ШІ з можливостями, еквівалентними людським, рано чи пізно матеріалізуються. Щоб запобігти потенційним негативним наслідкам, лідери галузі пропонують створити організацію, яка б займалася регулюванням ШІ, на кшталт Міжнародного агентства з атомної енергії (МАГАТЕ), що має на меті запобігти розповсюдженню та нецільовому використанню ядерної зброї.

Цей нещодавній заклик до обережності та регулювання з’явився після попереднього відкритого листа, підписаного понад тисячею дослідників і представників технологічної індустрії, які виступали за шестимісячний мораторій на розробку передових систем штучного інтелекту через їхню загрозу для людства.

Лаконічність формулювань листа мала на меті об’єднати експертів, попри потенційні розбіжності в поглядах на певні аспекти.

Источник

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *