Изкуственият интелект (AI) е една от технологичните иновации на 21 век, която се очаква да трансформира напълно нашия начин на живот. Тя обаче е свързана с редица въпроси, много от които морални. Дали няма да остави милиони хора без работа, кои данни може да ползва и как се събират и обработват. Това са само част от опасенията, свързани с нея.
Оказва се, че не са единствените. AI играе все по-голяма роля в научните среди, като възможностите на новата технология отварят нови врати в провеждането на мащабни изследвания и обработката на големи масиви от данни. Нещо, което е ключово някои научни области. В същият момент, системите за изкуствен интелект могат да бъдат голямо предимство за разработчиците им. Което прави споделянето на техния код абсурдна идея.
Това влиза в пълен разрез с практиката в научните среди. В тях е прието, публикуването на дадено изследване да бъде споделена пълната информация за параметрите, методологията му и др. Идеята е, други учени да се опитат да повторят резултатите от експериментите и така реално да потвърдят заключенията. Тази практика е ключова за проверката и валидацията на научните трудове.
Когато един такъв научен труд е извършен с помощта на AI, учените са изправени пред редица неизвестни компоненти и прави репликирането на резултатите почти невъзможно. С което, те настояват за прозрачност при осъществяването на подобни изследвания.
Бунтът на учените
Поводът за цялото недоволство тръгва от 31 учени, които излизат със становище в списание Nature отговор в рамките на публикация на Google Health. Интернет гигантът е тествал своите AI разработки за намирането на признаци на рак на гърдата в различни пациенти, като използва за информация единствено медицински данни.
Проблемът е, че Google не е предоставил почти никаква информация за кода на програмата, както и редица други детайли свързани с изследването. Което прави оценката и възможността за повтаряне на резултатите невъзможни. Позицията на учените е, че публикацията на Google е нищо повече от една реклама на тяхната технология.
„Това не може да продължава“, коментира Бенджамин Хейбе-Кейнс, водещият автор на публикацията в Nature, цитиран от TechnologyReview. „Проблемът не е само в това изследване – това е тенденция, която наблюдаваме от няколко години и вече започва наистина да ни притеснява“.
Хейбе-Кейнс допълва, че все повече учени започват да се отдръпват от изследванията свързани с AI, именно поради тази причина и липсата на прозрачност.
„Когато видяхме научния труд на Google, разбрахме, че това е перфектния пример за много интересно изследване, публикувано в престижно издание, но което няма нищо общо с науката“, коментира той. Според него, това е просто реклама на „яка технология“, но с която, останалите нищо не могат да направят.
Когато става дума за подобни изследвания в рамките на биологията, физиката, химията и компютърните науки, учените са свикнали да разполагат с пълната информация или поне достатъчна такава, с която да може да се повторят експериментите и да се сверят резултатите. На практика, това се случва рядко, но точно тази прозрачност изгражда доверието и признанието в научните среди, че откритията са автентични.
Цялостният проблем на AI и науката
Има редица предизвикателства, които разминават вижданията, методите и начините на действие между AI и науката. За начало, липсата на прозрачност при подобни изследвания, прави почти невъзможна тяхната оценка за ефективност, безопасност и др. Което прави изключително опасно прехвърлянето на теоретичните резултати в реална обстановка. Което дори може да е смъртоносно, ако изкуственият интелект се използва за автоматична диагностика на рак, каквото е изследването на Google.
Самата AI технология, по начало е доста неприветлива за подобно детайлно разучаване. Защото е много трудно да се обясни в подробности защо и как машинното самообучение е достигнало до крайните изводи. Липсата на прозрачност във всички останали компоненти правят задачата невъзможна.
Три са факторите, от които зависи успеха на AI – софтуерния код, мощността на хардуера и ползваната база данни. Последните две много често са привилегия на големите компании. Защото те могат да си позволят или имат мащабите да събират достатъчно информация, която да бъде от максимална полза за обучение на алгоритмите.
Също така, тя е и обект на все по-голяма регулация, предвид чувствителността на данни, които базата може да съдържа. В случая с Google – пациентската информация е поверителна и може да се използва само с изрично съгласие на хората.
Споделянето на алгоритмите също не е обичайна практика. Според доклада State of AI едва 15% от всички изследвания свързани с изкуствен интелект се споделя кода, с който са извършени. Основните и едни от най-добре познати инициативи за AI, като OpenAI на Илон Мъск и DeepMind на Google естествено държат в тайна софтуерните алгоритми.
Крайният резултат е, че се публикуват хиляди научни трудове за изкуствен интелект, но без да има възможност за обективна проверка и потвърждение на резултатите.
Новото злато
Тезата изказана преди десетилетия, че данните ще са петрола на 21 век, е изказана през 2006 г. от британския учен и предприемач Клив Хъмби, започва да се материализира. Облачните услуги и компаниите събират огромни количества информация, като сървърите и AI ще са основните компоненти за нейното монетизиране. Като те са ключът в предоставянето на услуги с висока добавена стойност и автоматизация.
Затова борбата за всички тези компоненти е толкова жестока, не само между технологичните гиганти, но и на държавно ниво. Което прави до голяма степен логична постъпка, че водещите компании в AI разработките държат своя софтуер в тайна. Неслучайно, при преговорите за продажбата на американското звено на TikTok, китайската компания-майка ByteDance отказа да предаде кода за своите алгоритми в социалната мрежа на Microsoft.
Тук идва въпросът – защо тогава AI е обект на научни изследвания? Отговорът е доста по-сложен. От една страна, доскоро изкуственият интелект се разглеждаше повече от университети, лаборатории и ентусиасти, които възприемаха повече научния подход и практики.
През последното десетилетие, Google, Facebook, Amazon, Microsoft и Apple започнаха да развиват подобни алгоритми, като ползваха големите масиви от информация, които са натрупали през годините. Много от учените, от своя страна продължиха разработките си в корпоративна среда. Подобен пример, може да бъде българската „Онтотекст“, която започва като дипломна работа и прераства в перспективен бизнес за технологичната група „Сирма“.
Влиянието на AI върху науката
Простото решение е ако AI разработките преминат изцяло в корпоративна среда. Това няма как да стане, защото изкуственият интелект може да трансформира напълно самите научни изследвания в почти всяка област – от астрономия, през молекулярна биология до теоретична физика.
Както виждаме в научния труд на Google (а подобни експерименти правят IBM и много други), AI се използва за потенциалното решаване на тежки медицински проблеми. Изкуственият интелект беше впрегнат в борбата срещу коронавируса, също. С други думи, преплитането между двете е прекалено голямо, за да бъдат разделени. Практиката и методите между корпоративната и научна среда са диаметрално противоположни и това води до тези конфликти.
В материала на TechnologyReview например се показва мнението на редица учени, които не искат да участват в подобни изследвания или да ги признаят, заради липсата на прозрачност. Намирането на компромисен вариант ще е доста трудна задача, предвид факта, че данните, хардуера и софтуера много често са в пълния контрол на компаниите.
Цялата история показва един интересен сблъсък в момента на скоростното развитие на тази потенциално революционна технология.