Десетки хиляди учени, подписаха открито писмо до човечеството, призоваващо да не се полага изкуствен интелект на бойните машини. Повече от 30 000 души е броят на учените, предприемачите и инженерите, които работят в областта на високите технологии и са положили своите подписи в писмото. Сред тях са и едни от най-емблематичните лица като: физикът и професор по математика – Стивън Хокинг; Илон Мъск, който е главен изпълнителен директор в компанията SpaceX, както и главен продуктов архитект в „Тесла“; един от основателите на „Apple” – Стийв Возняк; нобеловият лауреат по физика – Франк Вилчек.
Събирането на подписи продължава, така че всеки може да се присъедини към него. Въпросното открито писмо е именувано: „Autonomous Weapons: an Open Letter from Al & Robotics Researchers”, което е адресирано до цялото човечество. Този документ е част от Международната конференция по изкуствен интелект, състояща се в Буенос Айрес.
Още от начина, по който е озаглавено писмото, се разбира че учените се опасяват, че в случай че бъде създаден изкуствен интелект, той би могъл да направи самостоятелна военна техника. Според тях ще се създаде предпоставка за създаването на роботи-убийци, които ще избират свои собствени цели. Това означава, че при наличие на разум, те няма да имат управление, а ще се самоуправляват (нещо, което често виждаме във филмите като Терминатор).
Учените се опасяват също така, че при този скоростен напредък на технологиите, масовото производство на „терминатора“ би могло да започне съвсем скоро. Според авторите на писмото, това ще бъде нещо като трета стъпка във военната революция, като за първа такава се смята създаването и откриването на барута, а втора – ядрените оръжия. А сега, за поредната трета по ред революция, ние подготвяме изкуствен интелект, по-точно учените, които са готови да създадат самоуправляващ се военен изкуствен интелект. Въпреки, че в момента въпросното писмо продължава да събира поддръжници, това не означава, че не се е организирало подобно мероприятие срещу създаването на биологични и химически оръжия. И все пак, те са факт.
Авторите на писмото подчертават, че ключовият въпрос за човечеството днес е дали да се започне надпреварата във въоръжаването на изкуствения интелект или не. Те призовават да не се създават подобни машини за масово унищожение и да бъдат категорично забранени. Като например използването на химическо оръжие.
В крайна сметка оказва се, че „едно парче желязо“ с картечница, би могло да доведе до пълното и масово унищожение на човечеството. Идеята на това писмо била заложена още в началото на 2015 г, когато Стивън Хокинг и Илон Мъск изразили своето становище по този казус. Към тях се присъединил и Бил Гейтс в подкрепа на иска, който обаче в момента не е сред подписалите.
Въпреки опасенията на учените, ни остава и малката надежда, че след приблизително 20 години, роботите които притежават интелект, биха могли да започнат и да вярват в Бог.
Ето и откритото писмо, публикувано без редакторска намеса:
„Автономните оръжия избират своята цел без човешка намеса. Те може да включват например въоръжени дронове, които могат да търсят и елиминират хора, отговарящи на предварително зададени критерии, но не включват крилати ракети или дистанционно управляеми безпилотни дрони, за които хората вземат всички решения.
Технологиите при изкуствения интелект са достигнали такова ниво, при което развитието на подобни системи е осъществимо до няколко години, не десетилетия, а залозите са големи – автономните оръжия се смятат за трета революция на войната след създаването на барута и ядрените оръжия.
Много аргументи са изложени „за“ и „против“ автономните оръжия, например замяната на хората-бойци от машини е добре за намаляване на жертвите, но е лошо заради понижаване на прага, при който ще се започва война. Ключовият въпрос за човечеството днес е дали да започне глобална надпревара при изкуствения интелект във въоръжаването или да попречи този процес да стартира.
Ако някоя голяма военна сила започне развитието на оръжия с изкуствен интелект, то глобалната надпревара при въоръжаването става на практика неизбежна, а крайният резултат от тази технологична траектория е очевиден: автономните оръжия ще станат калашниците на утрешния ден. За разлика от ядрените оръжия, за производството им няма да са необходими скъпи и трудни за набавяне материали, така че те ще станат повсеместни и евтини за масово производство за всички значими военни сили.
Ще бъде само въпрос на време, докато тези оръжия се появят на черния пазар и в ръцете на терористи, диктатори желаещи да контролират по-добре своето население, военачалници, които искат да извършат етническо прочистване и т.н. Автономните оръжия са идеални за задачи като убийства, дестабилизиране на цели народи, покоряване на населението и селективно избиване на определени етнически групи. Ето защо ние вярваме, че развитието на изкуственият интелект за военни цели не би било от полза за човечеството. Има редица начини, по които изкуственият интелект може да направи бойното поле по-безопасно, особено за цивилните граждани, без да се създават нови инструменти за убиване на хора.
Точно както повечето химици и биолози нямат интерес в изграждането на химически или биологични оръжия, голяма част изследователи в областта на изкуствения интелект нямат интерес в изграждането на оръжия с изкуствен интелект и не искат другите да петнят тяхната област, създавайки отрицателно обществено мнение за изкуствения интелект, което ограничава неговите бъдещи ползи за обществото. На практика химиците и биолозите притежават широко подкрепяни международни споразумения, които успешно са забранили химическите и биологическите оръжия, точно както повечето физици подкрепиха договорите за забрана на космически -базирани ядрени оръжия и скрити лазерни оръжия.
В обобщение ние вярваме, че изкуственият интелект има огромен потенциал да подпомогне човечеството по много начини, и че целта е това да се случи. Започването на военна надпревара с оръжия с изкуствен интелект е лоша идея и трябва да бъде предотвратено чрез забрана за нападателни автономни оръжия без човешки контрол. „