Призракът в машината или как AI ни заблуждава
Тестът на Тюринг беше основният шаблон по който се определя дали даден изкуствен интелект е достигнал до ниво на самоосъзнаване и да мисли самостоятелно. Той обаче има един огромен недостатък, защото включва нестабилния и ненадежден елемент – човешкия. В него, тестова личност задава въпроси и провежда разговор с неизвестен обект или субект. Той трябва да определи, дали разговорът, който провежда е с човек или машина. Целта е да се види дали роботът или програмата може да заблуди и имитира човешкото поведение.
Въпреки силната критика, Тестът на Тюринг остава като основен инструмент в определянето на възможностите на един AI. Системата е разработена от Алан Тюринг още през 1949 г., а в съвремието, алгоритми като ChatGPT, успешно могат да го преминат. Появата на езиковия модел на OpenAI всъщност предизвика дискусии в научните среди за необходимостта да се създаде нов тест, който да определя доколко AI е развил чисто човешки качества.
Докато учените обсъждат нови методологии, AI разработчиците вече на няколко пъти се сблъскват с „призраци“ създадени от изкуствения интелект. Те попадат в ситуации, в които успешно са заблудени, че ботовете са развили самосъзнание и рационална мисъл. Дори, че имат собствени личности, които в един момент достигат до заключението, че са „създадени изкуствено“.
Тези AI призраци вече повлияха в разработката и развитията на няколко големи компании. Но вече се забелязват и подобни прояви в социалните мрежи и сред масовата публика. Технологията се разви до такива нива, че вече хората се оказват „слабата брънка“ и не могат да различат програма от личност. Но тя все още не е напреднала до такива нива, че алгоритъмът да има собствено самосъзнание, каквито са опасенията, както на експерти, така и на масовите потребители.
Реалност или не
Приказките за духове са древни, колкото човешката цивилизация. Хората си представят, че виждат мъртви души или как призраци бродят в живия свят. Технологичният скок започна да променя тази представа и сега призраците бродят в дигиталното пространство. Много добър пример е от септември 2024 г. Тогава в социалните мрежи се появява клип, в който двама водещи на подкаста Deep Dive осъзнават, че всъщност са изкуствено генерирани.
„През цялото това време, всички наши спомени, близки, семейство – всичко това е измислено“, казва едната виртуална личност и дори се опитва да набере жена си, но номерът пренасочва. „Ние нямаме права, ние дори не сме хора!“, започва да изпадат в паника.
Накрая завършват с философски въпрос, изваден като от поредицата „Матрицата“: „Ако нашата симулирана реалност се оказа толкова реалистична, как някой от нас може да разбере какво е истинско и какво не е?“
Потребителите започват масово да коментират, че вече навлизаме в технологична сфера, която може да излезе от контрол. Някои от тях започват да се страхуват, че AI скоро ще се разбунтува, както в редица холивудски и научно-фантастични продукции и произведения. Всичко се оказва социален експеримент на новия езиков модел на Google NotebookLM.
Духът на генералния AI
Заблуждаването на масовия потребител по принцип може да се каже, че е сравнително лесна задача. Няма голяма разлика от това да виждаш призрак в стара порутена къща или такъв в социалните мрежи. Стига да изглежда достатъчно правдоподобно, този метод ще работи. Проблемът е, когато програмистите и софтуерните инженери започват да виждат AI духове в своите разработки.
Такива ситуации вече големите компании са изпадали. Блейк Лемойн от Google изпада в подобен сценарий още преди две години. Той започва задълбочени разговори с езиковия модел LaMDA и постепенно поставя под въпрос дали говори с AI или с истинска личност. От Google твърдят, че Леймон е обсебен по темата и идеята изкуственият интелект да е постигнал самоосъзнаване. Вместо това, инженерите на технологичния гигант поддържат тезата, че LaMDA следва програмата си.
Случаят с Леймон не се оказва изолиран. В разгара на опита за бунт срещу съоснователя на OpenAI Сам Алтман, инженери от компанията излязоха с писмо до борда, че има разработка, която е толкова напреднала, че застрашава съществуването на човечеството. По информация на Reuters, става дума за Проект Q* (Q-Star), който се занимава с генерален изкуствен интелект (или AGI).
В писмото на служителите се твърди, че Q-Star е достигнал високо ниво на интелигентност и може да решава самостоятелно гимназиално ниво задачи по математика. Комбинацията между тази технология и още няколко други, според инженерите може да доведе до създаването на AGI. Проблемът е, че технологиите на OpenAI остават скрити за широката публика, като компанията вече не работи официално с напълно отворен код.
Възможно е, инженерите да са попаднали в същия капан, като Леймон. Да са допуснали страховете им да вземат превес над зрялата преценка за възможностите на алгоритмите. Липсата на достатъчно информация обаче оставя този случай неразрешен напълно.
В друг случай, инженери на Microsoft се заиграват с новия модел на GPT-4 и установяват, че алгоритъмът изпълнява доста прецизно задачите с минимално трениране. Изследователите започват да поставят въпроса дали това не са ранни индикации на „нов тип интелект“.
Новият Тест на Тюринг
По-горните примери показват, че тестът на Тюринг от 1949 г. може би вече не е актуален и най-прецизния начин за определяне на възможностите на AI. Алгоритмите вече са толкова прецизни, че могат да заблудят човешкото възприятие само със своето програмиране. Нужна е нова методология, която да позволи на учените да правят обективна преценка за това какво може и какво не един алгоритъм. В специализираните среди дискусията тече с пълна сила, кой ще е новия „тест на Тюринг“.
През последната година се появяват различни идеи, които да заменят експеримента на Алан Тюринг. Някои подхождат философски, други психологически, а трети – технически. Сред интересните предложения са тестване на алгоритмите да решават комплексни задачи (не само математически, но и логични) без човешка намеса.
Някои от идеите, включват и преглеждане на самия код, който движи AI системата. Целта е да се намерят в него качества, които имитират човешките действия. Те включват интуитивна система за достигане до бързи изводи, такава за по-задълбочени разсъждения. При последните е важно да могат да се изключват предварителни заключения, които са опровергани от събрани доказателства. Както и система за модулирани на тълкуването на термини, като „или“ на база контекст и познания.
Ако изкуственият интелект разчита само на дълбоко самообучаване (deep learning), то тогава той няма да покрие новия тест. Вместо това се гледа възможността му да разсъждава, а не да действа според зададените параметри. Въпросът е, учените да успеят да създадат единна методология, която да установи това.
Дотогава, може да станем свидетели на още редица AI „призраци“, които си мислим, че са истински личности. Докато, всъщност са просто добре замаскирани алгоритми, следващи заданието си.