• Post category:Home

Изкуственият интелект представлява “риск от изчезване”, равен на този от ядрена война!

Изкуственият интелект представлява подобен риск за изчезването на човечеството като пандемиите и ядрената война, предупредиха експерти.

Шефът на фирмата, която стои зад ChatGPT, ръководителят на лабораторията за изкуствен интелект на Google и главният изпълнителен директор на Anthropic – друга голяма фирма за изкуствен интелект, са подписали отворено писмо.

То гласи: “Намаляването на риска от изчезване вследствие на изкуствения интелект трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемиите и ядрената война.”

Центърът за безопасност на изкуствения интелект, който публикува изявлението, заяви, че се надява да отвори дискусията, тъй като “може да е трудно да се изрази загриженост относно някои от най-сериозните рискове, свързани с напредналия изкуствен интелект”.

Дан Хендрикс, директор на Центъра за безопасност на изкуствения интелект, заяви: “Хората са доминиращият вид на Земята благодарение на нашия интелект. Но сега, когато ИИ става все по-мощен и по-интелигентен, в бъдеще няма да заемаме същата позиция.

“Това може да ни постави в по-крехка позиция и евентуално да тръгнем по пътя на неандерталците или горилите”.

Британският компютърен учен Джефри Хинтън и Йошуа Бенгио, считани от мнозина за “кръстници” на изкуствения интелект, също сложиха имената си под предупреждението.

Над 350 души, работещи в тази област като инженери, изследователи или ръководители, са се подписали.

Бързо растящите възможности на ИИ предизвикаха подобна загриженост и от други високопоставени личности през последните месеци – въпреки че не всички в индустрията смятат, че той представлява екзистенциална заплаха.

През март Елон Мъск се присъедини към група експерти, които призоваха за шестмесечна пауза в обучението на големи езикови модели на изкуствен интелект, каквито се използват от ChatGPT и други подобни чатботове.

В това писмо се предупреждаваше за “дълбоки рискове” и се казваше, че мощните системи трябва да се разработват само когато може да се гарантира, че “ефектът от тях ще бъде положителен, а рисковете ще бъдат управляеми”.

Разпространението на дезинформация, загубата на милиони работни места, както и екзистенциални заплахи за човешката раса често се посочват като потенциални опасности, ако ИИ продължи да се развива бързо.

Министър-председателят Риши Сунак се срещна с ръководителите на водещи компании за ИИ, за необходимостта от регулиране на технологията и намаляване на рисковете.