Хокинг и експерти: Забрана на AI за военни цели | IT.dir.bg

17-11-2017 20-11-2018
Хокинг и експерти: Забрана на AI за военни цели
EPA/БГНЕС

Хокинг и експерти: Забрана на AI за военни цели

Над 1000 експерти в роботиката и изкуствения интелект предупреждават за опасността от употребата на изкуствен интелект за военни цели и "автономните оръжия".

33 235
Те подписаха отворено писмо, представено на Международната конференция за изкуствен интелект.

Под писмото са имената на професор Стивън Хокинг, основателя на Tesla Елон Мъск, съоснователя на Apple Стив Возняк, главния изпълнителен директор на проекта на Google DeepMind Демис Хасабис, пише "Гардиън", цитиран от "Дневник".

"Технологията е достигнала точка, в която разполагането на (автономни оръжия - бел. ред.) е - на практика, ако не законно - осъществимо в рамките на години, а не на десетилетия, а залозите са високи: автономните оръжия се описват като третата революция във военната наука след изобретяването на барута и ядрените оръжия", пише в писмото.

Според авторите изкуственият интелект (AI) може да направи бойните действия по-безопасни, но автономните оръжия, които действат на своя воля, ще снижат прага на безопасност и ще доведат до по-голяма загуба на човешки живот.

Ако една държава започне да разработва системи, които ще могат самостоятелно да избират целите си, без пряк човешки контрол, това ще започне нова надпревара за въоръжаване, подобна на тази с атомните оръжия, предупреждават авторите.

Но за разлика от ядрените оръжия изкуственият интелект не изисква специфични и трудно достъпни материали и производството му ще бъде много трудно контролирано от световната общност.

"Крайната точка на тази технологична траектория е очевидна: автономните оръжия ще станат "калашниците" на утрешния ден. Ключовият въпрос за човечеството днес е дали да започне глобална надпревара във въоръжаването, или да попречи на подобно развитие", заявяват авторите.

"Ние трябва да вземем едно решение днес, което ще оформи бъдещето ни и ще определи дали ние следваме пътя на доброто. Ние подкрепяме призива на редица различни хуманитарни организации за забрана на ООН за автономните оръжия, подобни на неотдавнашната забрана на заслепяващите лазери", коментира Тоби Уолш, професор по изкуствен интелект в Университета на Нов Южен Уелс.

Мъск и Хокинг предупредиха наскоро, че изкуственият интелект е "най-голямата заплаха за човечеството" и че развитието на напълно автономен изкуствен интелект може да "сложи край на човешката раса". Но други, включително Возняк, наскоро промениха мнението си за изкуствения интелект, като съоснователят на Apple каза, че роботите може да се превърнат в "домашния любимец на всяко семейство".
Хокинг и експерти: Забрана на AI за военни цели

Хокинг и експерти: Забрана на AI за военни цели

Над 1000 експерти в роботиката и изкуствения интелект предупреждават за опасността от употребата на изкуствен интелект за военни цели и "автономните оръжия".

33 235 EPA/БГНЕС
Те подписаха отворено писмо, представено на Международната конференция за изкуствен интелект.

Под писмото са имената на професор Стивън Хокинг, основателя на Tesla Елон Мъск, съоснователя на Apple Стив Возняк, главния изпълнителен директор на проекта на Google DeepMind Демис Хасабис, пише "Гардиън", цитиран от "Дневник".

"Технологията е достигнала точка, в която разполагането на (автономни оръжия - бел. ред.) е - на практика, ако не законно - осъществимо в рамките на години, а не на десетилетия, а залозите са високи: автономните оръжия се описват като третата революция във военната наука след изобретяването на барута и ядрените оръжия", пише в писмото.

Според авторите изкуственият интелект (AI) може да направи бойните действия по-безопасни, но автономните оръжия, които действат на своя воля, ще снижат прага на безопасност и ще доведат до по-голяма загуба на човешки живот.

Ако една държава започне да разработва системи, които ще могат самостоятелно да избират целите си, без пряк човешки контрол, това ще започне нова надпревара за въоръжаване, подобна на тази с атомните оръжия, предупреждават авторите.

Но за разлика от ядрените оръжия изкуственият интелект не изисква специфични и трудно достъпни материали и производството му ще бъде много трудно контролирано от световната общност.

"Крайната точка на тази технологична траектория е очевидна: автономните оръжия ще станат "калашниците" на утрешния ден. Ключовият въпрос за човечеството днес е дали да започне глобална надпревара във въоръжаването, или да попречи на подобно развитие", заявяват авторите.

"Ние трябва да вземем едно решение днес, което ще оформи бъдещето ни и ще определи дали ние следваме пътя на доброто. Ние подкрепяме призива на редица различни хуманитарни организации за забрана на ООН за автономните оръжия, подобни на неотдавнашната забрана на заслепяващите лазери", коментира Тоби Уолш, професор по изкуствен интелект в Университета на Нов Южен Уелс.

Мъск и Хокинг предупредиха наскоро, че изкуственият интелект е "най-голямата заплаха за човечеството" и че развитието на напълно автономен изкуствен интелект може да "сложи край на човешката раса". Но други, включително Возняк, наскоро промениха мнението си за изкуствения интелект, като съоснователят на Apple каза, че роботите може да се превърнат в "домашния любимец на всяко семейство".