Изкуственият интелект (AI) и технологиите около него все повече се превръща в реалност. Обещанията, че тези иновации ще трансформират почти всеки един елемент от нашия живот бавно и славно започват да се сбъдват. Промените обаче могат да бъдат толкова резки, че да не съвпаднат с настоящата визия за развитие, която имат държавите. В стремеж да си върнат контрола върху този процес, идеята за регулиране на AI също започва да се материализира.
След обещания и дълго разработване, първи в това отношение излиза Европейския съюз (ЕС). Когато става дума за технологични правила, Брюксел винаги води щафетата. Разликата, спрямо други инициативи е, че САЩ също са в крайната фаза на предлагане на подобни регулации за AI. Ако в сряда Европейската комисия (ЕК) публикува своите официални предложения на 21 април, то два дни преди това бяха обявени и част от плановете на Вашингтон за нови правила в тази насока.
Почти синхронизираните действия, може дори да се изтълкуват като координирани. Дали това е така е много трудно да се каже. По-важното е точно какво се предлага и в кои направления на AI технологията. Любопитното е, че САЩ може би предлагат с една идея по-строг контрол от ЕС. Нещо, което е принципно нетипично за управляващите във Вашингтон.
Забранителните идеи на Европа
ЕК предлага правила в ползването на AI най-вече в инструменти, които засягат цялото общество и по-конкретно ако погазват човешкото право. Например, Брюксел ще забрани използването на биометрично и лицево разпознаване от органите на реда в страните-членки на съюза. Технологията ще се прилага само когато това е необходимо за разкриването на тежки престъпления, като убийства, отвличания, терористични атаки и др.
Първоначалните чернови загатваха за пълната забрана на AI да се ползва за наблюдение, но впоследствие, правилата са били смекчени с една идея. Вероятната причина е да не се жертват потенциални инструменти за сигурност, с които да разполагат властите на европейските държави.
Друг елемент, който ЕС ще забрани е интегрирането на AI алгоритми в изработването на системи за социална оценка. Подобна вече функционира в Китай, която привлече критиката, че може да се използва за масово наблюдение, следене и дори контрол над населението на страната. При нея всеки гражданин се оценява и на базата на резултата се определя дали може да получи достъп до определени кредити, услуги и др.
Трите стълба на Брюксел
Това са най-големите точки в забранителния списък на комисията и се определят като най-рискови. Към последните се определят и правилата за AI алгоритмите, които контролират автоматизирани ключови системи, като медицински устройства или автономни коли. При тях няма да има толкова ограничения, но ще бъдат поставени под по-стриктен контрол на изпълнение и качество.
ЕК разделят AI решенията на три стълба. Високорисковите вече ги разгледахме и те са първия. Следват тези със средна опасност. Тук може да влизат чатботове, deepfake инструменти и друго съдържание създавано чрез AI също ще бъде под наблюдение. Разработчиците ще трябва ясно да покажат, че хората общуват с програми или че съдържанието е създадено от машина. Целта на ЕК е да се повиши прозрачността на подобни системи.
Някои решения, като автоматизирани спам филтри, препоръчвания на базата на анонимни потребители и др. контролът ще бъде по-малък. При някои дори може да липсва. Това е третият стълб на класификацията на ЕК. Идеята на Брюксел е да може да покаже, че AI алгоритмите са надеждни и да спечели доверието на потребителите. По този начин, ЕК е убедена, че ще насърчи и тяхното използване в рамките на Стария континент. Те са част и от стратегията на новия състав на Комисията за дигитално развитие на ЕС.
„Днес представихме новите правила за надежден AI. Те налагат високи стандарти и варират спрямо нивата на риск“ Урсула фон дер Лайен, Европейска Комисия
„Днес представихме новите правила за надежден AI. Те налагат високи стандарти и варират спрямо нивата на риск“, коментира в Twitter, председателят на ЕК Урсула фон дер Лайн. Тя добави, че „искаме да насърчим нашите граждани да ги ползват уверено“.
Предложените регулации ще трябва да преминат през целия механизъм на приемане на Европейския съюз. След което, технологичните компании ще разполагат с две години гратисен период, за да може да адаптират своите услуги и продукти, така че да отговарят на тях.
Подходът отвъд Атлантическия океан
От другата страна на Атлантическия океан, досега се водеха само дискусии за създаване на правила за ползване на AI. Два дни преди ЕК да представи официално своите регулации, се появи и първият официален документ за подобни намерения. Той идва под формата на кратък блог пост на щатния адвокат на Федералната комисия по търговията на САЩ (FTC) Елиза Джилсън.
В него се дават конкретни предложения, как да се адаптира настоящото щатско законодателство, за да може да се упражни по-стриктен контрол върху AI системите. САЩ вече имат готови правни рамки, в които част от потенциалните проблеми могат да се решат с бързи изменения.
Тук се включва възможността да се ограничат автоматичните алгоритми да взимат решения базирани на расовата принадлежност на потребителите. Както и компаниите да ползват такива, които да създадат потенциална дискриминация на всякаква основа – било то на расова, сексуална, религиозна и др. По сходен начин, трябва да се намали възможността на AI решения да отказват на гражданите ключови решения, като наемане на работа, настаняване, кредити, застраховки и други жизненоважни услуги.
FTC още дава примери, които съвпадат с част от предложенията на ЕК. Например, ползването на AI за следене на гражданите. Друг е, как се ползват чувствителни данни като медицински изследвания и др.
Заедно срещу AI
Щатският регулатор повече повдига въпроси, отколкото дава конкретна законодателна рамка. Доста от тях обаче съвпадат с посоката, която Брюксел е избрала. Анализатори смятат, че FTC ще има подкрепата и на двете основни партии в САЩ, което може да ѝ позволи бързо да прокара законодателни промени. Има и нещо друго, комисията все пак демонстрира, че за част от проблемите, тя има инструменти да действа и в момента. При ЕК този процес ще отнеме поне две години.
От излязлото мнение на FTC и на предложенията за регулация на ЕС става ясно, че Европа и САЩ заемат сравнително сходни позиции в идеята си да регулират AI решенията. Единният подход се различава от китайския в това, че няма да се използват алгоритмите за затвърждаването на силата на държавата. От друга ще се опитат да направят системите „по-либерални“. Дали тези усилия няма да доведат до обратна дискриминация времето ще покаже.