Как да създадем злонамерен изкуствен интелект?
В научната фантастика е пълно с много зли роботи с изкуствен интелект, но повечето от тези роботи са били създадени с добри намерения и тяхната жестокост била по-скоро неочаквано последствие на програмата, а не планирана черта на разума. Но ако причината се крие не в грешка, а в преднамерен замисъл?
Ново изследване е посветено именно на този въпрос – какво ще стане, ако някой реши да създаде изкуствен интелект не за съзидание, а за разрушение?
Статията със заглавието Неетични изследвания: как да създадем злонамерен изкуствен интелект на Роман Ямполский от университета на Луисвил и футуролога Федерико Пистоно изследва въпроса, каква вреда може да нанесе на човечеството активно действаща програма с разрушителни намерения.
Ще речете, за какво ни е изобщо да се занимаваме с такива въпроси? Но изследователите казват, че е по-добре да се опознае заплахата отрано, в спокойна и мирна обстановка, отколкото да се адаптираме в крачка, когато нещо подобно започне своята атака. Статията е написана в рамките на финансиране от фонда на Елън Мъск, който отдавна е назовал „изкуствените интелекти за една от най-мощните заплахи за човечеството в бъдеще“.
Какво са изяснили Пистоно и Ямполский? От списъка групи, способни да създадат зловреден изкуствен интелект, се започва с познати позиции – военните (разработващи кибероръжие и роботизирани войници), правителствата (опитващи се за използват изкуствен интелект за установяване на собствена хегемония, контрол над хората и борба с други държави), корпорациите (опит за монопол и отстраняване на конкуренти) и се продължава с хакери, религиозни култове и дори обикновени престъпници.
Подобни изкуствени интелекти могат да възникнат на най-неочаквани места. Според учените кодът, написан без надзор, или закритите програмни проекти, съставени така, че да ги виждат колкото се може по-малко хора, могат да станат източник на неочаквана поява на зловреден изкуствен интелект в света.
Но какво всъщност може да стори зловредният интелект? Например да подкопае пазара на труда. Пистоно и Ямполский пишат: „Използвайки естествената тенденция на компаниите да увеличават производството и печалбите, злонамереният изкуствен интелект може да предложи своите услуги на корпорации и да стане по-ефективен от повечето (ако не и от всички) служители хора, в резултат на което корпорациите в търсене на печалби да създадат изкуствена безработица, без да отчетат възможните рискове.“
Също така изследователите посочват като една от централните заплахи от страна на изкуствения интелект манипулативната пропаганда, с чиято помощ ИИ може да прокарва своите цели, използвайки законодателните органи на човешкото общество.
Той може да завърже истинска война посредством подкупи чрез финансови фондове или посредством агресивна пропаганда да скара различните страни, като хората дори няма да разбират откъде идва потокът от фалшификации.
И естествено, остава заплахата от унищожаване на човечеството чрез създаден от ИИ патоген или съществуващ ядрен арсенал.
В отговор на критичните и скептичните забележки за преждевременността на подобни изследвания Ямполский се опира на неотдавнашната история с чатбота Тай, който само за няколко дни общуване с потребителите на Twitter се превърна в расист.
Макар че този пример едва косвено се отнася към повдигнатия проблем, Ямполский акцентира вниманието на изследователите върху това, че инцидентът е показал непредсказуемостта на подобен род системи и че дори самите създатели на Тау не са очаквали подобен изход.