Site icon TechTrends България

За Google, AI етиката и Законите за роботиката

AI етиката и законите на роботиката

Един от доайените на научната фантастика Айзък Азимов формулира трите Закона на роботиката. Това са етичните правила, които ще гарантират, че в един момент машините няма да се обърнат срещу своите създатели. Те гласят:

Закон I: Роботът не може да навреди на човешко същество или чрез бездействие да причини вреда на човешко същество.

Закон II: Роботът трябва да се подчинява на заповедите, получени от човешки същества, освен когато тези заповеди влизат в противоречие с Първия закон.

Закон III: Роботът трябва да защитава съществуването си, освен когато това влиза в противоречие с Първия и с Втория закон.

И по-късно формулирания Закон 0: Един робот не трябва да причинява вреда на човечеството или чрез бездействието си да допусне на човечеството да бъде причинена вреда. Към останалите закони се добавя условието: „ако това не противоречи на Нулевия закон.“

Бързият напредък при разработването на изкуствения интелект (AI) ни кара да се сещаме за това толкова проницателно творчество на Азимов. Но явно, компаниите, които се занимават с новата технология тепърва се сблъскват с етичните проблеми, които тя отваря. Google от няколко години се бори именно с този проблем. Като всеки път все по-безуспешно от предишния.


Google е сред лидерите при разработването на AI решения


Когато става дума за AI, интернет гигантът е един от лидерите. Неговите разработки са достатъчно напреднали да побеждават хора в едни от най-трудните настолни и дори компютърни игри. Потенциалът на алгоритмите е огромен, като нееднократно военните на САЩ са изразявали интерес към технологията.

Макар и все още негласно, има световна надпревара между основните световни сили в развитието на AI. Изкуственият интелект е в основата на автоматизацията и потенциално роботиката. Но компанията все още не може да разбере напълно етичните проблеми свързани с развитието на тази технология.

Етична комисия, която нарушава етиката

Преди седмица Google изгради специална етична комисия, която да надзирава действията на компанията при разработването на AI решения. На пръв поглед това е стъпка в правилната посока. Тя беше изградена от външни за компанията хора, които да не са обвързани с проектите ѝ и съответно се очаква да са безпристрастни.

Тя не просъществува дълго, защото се оказа, че нейни членове имат противоречиви етични възгледи. Парадоксалната ситуация е пълна. От една страна хиляди служители на Google подписаха петиция за премахването на председателя на Heritage Foundation Кей Колс Джеймс като член на комисията. Причината са нейни скептични изказвания относно климатичните промени и хората с различно сексуално възприятие.


В етичната комисия на Google имаше скептици на глобалното затопляне и подизпълнители на американските военни


Друг представител на комисията е Дайън Гибънс, изпълнителен директор на Trumbull Unmanned – компания за различни услуги с безпилотни летателни апарати, която изпълнява поръчки и за американските военни. Което извади други скелети от гардероба.

Крайният резултат е, че комисията по AI етика беше разпусната именно поради причините, които наложиха нейното формиране. В същия момент Google се връща в отправна точка.

Защо е проблем

Има няколко фундаментални проблема, които развитието на изкуствения интелект отваря и налага създаването на AI етика. Първият е свързан с обработването на данните. Обединението на различните бази с информация отваря огромни възможности, които могат да бъдат експлоатирани срещу потребителите. Което да доведе до масово следене и пълното изчезване на личната неприкосновеност.

AI помага за анализирането и реалното сливане на информацията, така че да може да се извлече всичко за потребителите. Задача, която доскоро беше непосилна за дейта анализаторите. Дори в един момент се очаква, алгоритмите да ни познават по-добре от нас самите. Правилното управление на целия този процес и поставянето му в етични рамки е повече от препоръчително.

По-големият проблем е този, който Азимов се опитва да разреши със своите закони. А именно – опасността нашите творения да се обърнат срещу самите нас. Което започва да става реалност. Разликата е, че Азимов говори за роботи и алгоритми с осъзнато самосъзнание. В действителността, военните искат да автоматизират процесите за водене на бойни действия. С други думи, да ползват роботизирани машини на фронтовата линия.

Русия показа редица машини, които се водят, като бойни роботи. Реално, те са като дроните – управляват се дистанционно. Стремежът на Кремъл е в един момент, те да могат да изпълнят автономно своите заповеди.

Подобна концепция разработва и Пентагона в САЩ. Американските военни искат да подсилят своите възможности на бойните си дрони, като ги снабдят с алгоритми, които да им помагат да различават различните цели при мисия. Всъщност технологията ще има доста по-широко приложение, като се ползва AI за обработка на видеонаблюдение. Това може да варира от дрони, през пилотируеми самолети и хеликоптери, танкове и други, както и до наблюдателни камери в базите. Този проект беше даден на Google, но срещна силен отпор от служителите на компанията.

Проблемите, които създават тези алгоритми е, че те може да не отчетат контекст или други морални проблеми, които съпътсват тежкото решение за натискане на спусъка. Затова прилагането им за военни цели, където зависят десетки, стотици или дори хиляди животи е толкова противоречиво.


Google се опитва да ограничи работата си с американския военно-промишлен комплекс


Освен това Google притежаваше до 2017 г. Boston Dynamics – водещ разработчик на потенциални автономни роботи за Агенцията за авангардни разработки на Министерството на отбраната на САЩ (или DARPA). Интернет гигантът реши да продаде компанията на SoftBank и така да премахне отговорността за създаването на потенциални роботизирани военни системи.

Въпреки опитите на Google да се дистанцира от американските военни, проблемите с AI етиката продължава да съществува. Като няма изглед, скоро да бъде разрешена по качествен начин.

Exit mobile version