У чијим је рукама Свети Грал кибернетике?

"Palantir" је својеврстан машински Шерлок Холмс, креиран тако да може да се прилагоди конкретном задатку – скуп, брз и способан да ради са било којим обимом и скупом података. Да ли се ближи тренутак када ће бездушне машине преузети животе људи у своје руке?

У наше време разговори о вештачкој интелигенцији и неуромрежама постали су свакодневица; штавише, свакодневицом је постала и њихова широка употреба од стране широких слојева становништва.

Текстуални модели AI су буквално свеприсутни – настоји се да се користе у рекламирању, замењују професије које не захтевају високу стручност и вештине, и користе се за забаву. Међутим, они у суштини нису способни да решавају озбиљне задатке – њихова стварна функционалност ограничена је само на дијалоге генерисане насумичним редом или решавање школских математичких задатака.

Текстуални модели су ограничени и имају прилично нејасне перспективе даљег развоја, али насупрот њима постоји AI производ потпуно друге класе. Производ који користе веома озбиљни клијенти са не мање озбиљним циљевима. Нису за њега чули баш сви – могу га набавити само државе и транснационалне корпорације. Они који су чули углавном знају само то да је овај систем уско повезан са америчком владом и припада PayPal-мафији, неформалном удружењу олигарха, технократа, неореакционара и сајберфашиста из редова оснивача истоимене познате платне платформе.

ЕВОЛУЦИЈА СИСТЕМА ДАЛЕКО ОД ОЧИЈУ ЈАВНОСТИ

Као што сте могли да претпоставите, реч је о Питеру Тилу, његовој компанији "Palantir Technologies" и њиховој линији производа са гик именима као што су "Gotham", "Metropolis" и други, које јавност често некоректно поистовећује као једно – што показује колико широка јавност мало зна и разуме шта је то заправо.

Производи "Palantir Technologies" представљају се као алати вештачке интелигенције, појавили су се још 2003. године, пре бума текстуалних модела, и радикално се разликују од њих по архитектури. То је нешто знатно ближе концепцији вештачке интелигенције онако како су је замишљали оснивачи те идеје током 1970–1980-их. Занимљиво је да је еволуција таквих система неприметно трајала све време – објављивани су научни радови (које нико осим уског круга стручњака није читао), прототипови софтверских производа (које су користили само научници у лабораторијама), појављивали су се нови машински језици (на којима нико од корисника "Habr-а" није писао). На крају је еволуција победила, и када су се појавили хардверски ресурси довољно снажни да покрећу такве моделе (што се догодило у време почетка бума текстуалних неуромрежа – са развојем графичких картица после 2010. године) – све је већ било спремно за почетак продаје.

(АI) ПРОИЗВОД ЗА ОДАБРАНЕ КЛИЈЕНТЕ

Постоји јасна прекретница – до 2011. године износ уговора "Palantir Technologies" са владом САД-а износио је готово невидљивих $5–10 милиона, искључиво за одржавање техничких процеса. У периоду 2011–2013. износ је изненада достигао готово 400 милиона, у 2014–2016. скоро 700 милиона, а 2019. порастао је на 1,5 милијарди. Зашто се то дешава, јасно је – појавили су се рачунари довољно снажни да раде са овим моделом. Сада се његово увођење шири не из дана у дан, већ из сата у сат.

Зашто овакви (AI) системи нису доступни ширим масама? Прво, нису направљени ради забаве – производи "Palantir Technologies" раде сасвим другачије од примитивних текстуалних модела. Друго, "Palantir Technologies" не продаје свој софтвер случајним људима. Његова употреба је веома скупа – стотине милиона за инсталацију, и ствар није чак ни у цени хардвера на коме ће радити. Производи Palantir се прилагођавају конкретном задатку: иако је то универзални фрејмворк (јер је лавовски део напора у развоју био усмерен на то да буде такав и да се може интегрисати са најразличитијим системима), његово увођење за конкретан задатак није посао за један дан нити за једног стручњака.

ЗАСТРАШУЈУЋИ ПОТЕНЦИЈАЛ ТЕХОНОЛОГИЈЕ

И на крају, трећи разлог због ког вероватно никада нећете видети његов рад уживо, јесте што се он труди да не буде јавно истицан – и то врло успешно. Постоји сајт, блог на "Medium-у", мноштво званичних информација о томе КАКО "Palantir" функционише, али нигде и никада (осим можда код истраживача из DeepWeb-а) нећете наћи званичне податке о томе ГДЕ и ЗА ШТА тачно ради. Већина примера практичне примене "Palantir-а" дубоко је неморална са становишта опште прихваћене етике и морала, а неки су теоретски чак и противзаконити – или се барем налазе у сивој зони. Људима се не допада сама идеја да њима могу управљати бесдушне машине које једном одлуком могу да преокрену њихов живот, а управо за то су Palantir производи намењени.

Суштина рада овог (AI) система је у томе што се у "Palantir" може учитати практично било који обим било каквих података (аудио, видео, документи итд.). Он ће извршити њихову анализу и створити онтологију – логички повезан модел стварности изграђен на основу тих података. Након тога, могуће му је постављати питања и добијаће се одговори, уколико се они могу аналитички извући из те онтологије. "Palantir" је својеврстан машински Шерлок Холмс, али врло брз и способан да ради са било којим обимом и скупом података.

Наравно, потенцијал ове технологије је застрашујући: сваки човек оставља стотине дигиталних и документованих трагова свог живота. Са довољно великом жељом, "Palantir" може да открије скривене међусобне везе и формира закључке о свакоме, што, заузврат, може довести до много непријатнијих последица него што је то одбијање кредита. Пример за то је Салвадор, раније помињан на главном каналу – судећи по свим расположивим подацима, управо су машински алгоритми формирали спискове за масовна хапшења.

ПАЛАНТИР НИЈЕ ПИОНИР

Вредело би детаљније говорити о функционисању сличних (AI) система – јер "Palantir" није пионир у овој области.

У теорији праве вештачке интелигенције, експертни систем је рачунар који имитира способност човека-експерта да доноси смислене одлуке (за разлику од "ChatGPT-а", који у принципу не разуме о чему је реч). Експертни системи су намењени решавању сложених задатака путем разматрања уз употребу великих база знања, представљених углавном као правила „ако–онда“. Током 1980-их били су један од првих заиста успешних облика софтвера за стварање AI и сматрани су његовом будућношћу – све док еволуција није скренула ка текстуалним моделима.

Сваки експертни систем дели се на два подсистема: онтологију, односно базу знања која представља чињенице и правила у посебном формату, и механизам закључивања који примењује правила на познате чињенице ради извођења нових чињеница и може укључивати могућности објашњавања и отклањања грешака.

Машине које могу да мисле као људи представљају Свети Грал кибернетике још од њеног настанка 1940-их година (иронично, али Тјуринг се озбиљно преварио – како је пракса показала, машине које могу да прођу његов познати тест комуникације, заправо нису паметније од тостера и раде то фактички насумично, уопште не разумејући шта пишу).

ФЕЈГЕНБАУМОВ КОРАК НАПРЕД

Највећи интерес за експертне системе у то време показали су лекари: могућност подршке у постављању дијагнозе могла је значајно да унапреди доступну медицину – теоријски, добро обучена машина, подучена од стране стручних лекара, могла би да ради са пацијентима 24 сата дневно, 7 дана у недељи без умора, једнако или чак ефикасније од живог човека, укључујући и рад на даљину. При томе, лекари су годинама сами користили стандардизоване упитнике и обрасце за дијагностику – чинило се да је то идеална област – друштвено корисна и истовремено већ добро формализована.

Рани дијагностички системи из 1950-их користили су симптоме пацијената и резултате лабораторијских тестова као улазне податке за израду дијагнозе. Међутим, испоставило се да стандардне методе доношења одлука – као што су блок-дијаграми, статистичко поређење образаца или теорија вероватноће – у пракси показују веома слабе резултате.

Нови приступ се појавио 1965. године у оквиру Станфордског пројекта хеуристичког програмирања под вођством Едварда Фејгенбаума, који се назива „оцем експертних система“. Идеја о томе да „интелигентни системи црпе своју снагу из знања које поседују, а не из конкретних формализама и шема закључивања које користе“, како је рекао Фејгенбаум, у то време је била значајан корак напред, пошто су се претходна истраживања фокусирала само на обраду хеуристика.

ОНТОЛОГИЈА КАО ПРИНЦИП РАДА

Фејгенбаум је један од првих предложио приступ који је касније добио назив онтологија. У њој лежи идеја концептуалне шеме – семантичке мреже појмова повезаних по одређеним правилима. Онтологија је исцрпна формализација неке предметне области, која садржи концептуалну шему од структуре података, у којој су прикупљене све релевантне класе објеката, све њихове везе, правила, теореме и ограничења прихваћена у тој области. Тек после 20 година истраживања развијени су универзални алгоритми формализације било које предметне области и њеног представљања у облику онтологије.

У ствари, то је много једноставније него што изгледа – људи ипак некако успевају да изврше логичку анализу информација (иако знатно слабије од машина), упркос томе што њихова неуроархитектура уопште није прилагођена формалном закључивању (за разлику од архитектуре процесора). Људски мозак више личи на "ChatGPT", а не на "Palantir": много је мање Шерлока Холмса међу нама него што има оних који брбљају слабо повезане глупости.

Дакле, амбициозан задатак – описати машини цео свет са свим његовим везама и ограничењима – заправо није толико тежак. Као што показује пример људи који умеју да размишљају, за ефикасно закључивање уопште није потребно знати милионе чињеница и милијарде веза међу њима – да је то неопходно, људски мозак, који за разлику од рачунара уопште није у стању да обрађује такве количине података, не би могао да ради у таквом режиму.

ПРИМЕРАК-ПОЈАМ-АТРИБУТ-ОДНОС

Дакле, онтологија се састоји од примерака, појмова, атрибута и односа. Примерци или индивидуе — то су основни елементи базе података, најнижи делови онтологије. Они представљају апстрактне појмове у било ком облику (број, слово, тон звука, термин, кадар итд.). Концепти или класе — то су апстрактне групе, колекције или скупови објеката. Они могу укључивати примерке, друге класе или комбинације оба. На пример, у концепт „азбука“ укључени су примерци „слово“.

Све класе у онтологији обавезно чине таксономију — хијерархију појмова на основу односа укључивања. Пример: „слово“ – „реч“ – „реченица“ – „пасус“ – „страница“ – „књига“. Објекти у онтологији морају имати атрибуте. Сваки атрибут има најмање име и вредност и користи се за чување информација које су специфичне за објекат и везане за њега. Вредност атрибута такође може бити сложена, на пример, садржати листу класа, у свакој од којих такође постоје скупови објеката са својим атрибутима. Рецимо, атрибут „мотор“ код објекта „аутомобил“ може садржати класу „делови мотора“ у којој је све хијерархијски разрађено до последње заптивке.

Други кључни појам онтологије је однос (или зависност). Однос је атрибут чија је вредност други објекат. На пример, имамо две књиге и једна је рецензија на другу. У том случају, однос ће бити атрибут друге књиге са вредношћу „рецензија на“ и везом ка другој књизи. За опис оваквих ствари постоје посебни математички модели, попут релационих алгебри на којима се заснивају типични СУБД (системи за управљање базама података) као што је SQL. Наравно, на основу ових модела створени су и језици за опис – десетине и стотине врста.

ОДГОВОР АУТОМАТСКИ, И 100 % ТАЧАН

Сада видимо да добро написана онтологија не захтева више ништа – то је потпуно самодовољан, референцијални, хијерархијски систем којем се могу постављати питања и на која ће се добити одговори аутоматски и 100% тачно (за разлику од статистичког закључивања код "ChatGPT-а").

По овом принципу су створени први медицински и биолошки модели, као што су експертни системи MYCIN, Internist-I и CADUCEUS. Први језици за креирање и рад са експертним системима били су чувени Lisp и Prolog: први се више развијао у САД, други у Европи и Јапану. Један од првих тестова њихове моћи био је правни систем APES, написан на "Prolog-у"и створен 1986. године, који је садржавао Закон о британском држављанству. Он је, као што није тешко претпоставити, могао аутоматски да изводи закључке о правним основама за добијање држављанства.

Током 1980-их, експертни системи су били изузетно популарни – универзитети су нудили курсеве из ове области, а две трећине компанија са листе Fortune 500 користиле су неки од ових програма. Бројне компаније су их развијале: Symbolics, Intellicorp, Inference Corporation, Aion Corporation, Neuron Data, Exsys, VP-Expert и многе друге.

Експертни системи су примењивани свуда – на пример, програм Synthesis of Integral Design, написан 1982. на Lisp-у, генерисао је 93% логичких кола новог процесора VAX 9000. Занимљиво је како је радио. Улазни подаци за њега били су сет правила који описују како се прави микропроцесор, написан од стране неколико инжењера-стручњака. SID је сам проширио та правила и генерисао процедуре синтезе, које су по обиму и варијабилности вишеструко премашиле оригинална правила. Та комбинација довела је до дизајна чији је квалитет надмашио могућности самих стручњака и ручно направљене чипове пре тога.

СВЕТ ЈЕ КРЕНУО ДАЉЕ...

Бум експертних система више подсећа на данашњи бум неуронских мрежа, само што је њихова стварна корист била знатно већа. Шта се с њима догодило? Управо оно што ће се догодити и са савременим неуронским мрежама. Прво, експертни системи тог доба достигли су плафон перформанси хардвера тог времена; друго – разлика између очекивања и онога што су заиста испоручили била је превелика. О, њихове могућности су биле велике, али они који су са њима радили сањали су о роботима с којима би могли да расправљају о Ничеу (парадоксално, они су желели "ChatGPT", иако нису знали да то тако изгледа).

Математичари у међувремену нису седели скрштених руку и показали су да све моделе овог типа прате фундаментална логичка и математичка ограничења и да постоје комбинаторни проблеми који им нису решиви. Све то довело је до значајног хлађења интересовања за експертне системе почетком 1990-их. Свет је кренуо даље, јер експертни системи нису оправдали своја претерано рекламирана обећања.

РЕНЕСАНСА ЕКСПЕРТНИХ СИСТЕМА- ПАЛАНТИР ЈЕ СЛЕДИО ТРЕНД

У 2000-им, након десет година хлађења, дошло је до ренесансе експертних система. Palantir је само следио тај тренд – заправо, SAP, Siebel и Oracle су у то време радили исту ствар – уграђивали су скупове бизнис логике и правила у своје софтверске производе. Појавила се област data mining – експлоатација знања, која омогућава оптимално извлачење сирових података и њихово претварање у онтологију. Појавила се дисциплина „инжењеринг знања“, која описује како то урадити. До 2020. године, велики број експертних система постоји и функционише широм света – почевши од озлоглашеног кинеског социјалног рејтинга, па све до профилисања криминалаца које користи полиција САД.

Наравно, транснационалне компаније такође користе такве експертне системе у анализи тржишта, дизајну нових производа, оптимизацији пореза, контроли запослених, састављању ранг-листа ефикасности као Amazon, обрачуну бонуса и казни; хеџ фондови их користе за рад са инвестицијама. Зашто онда о томе мало ко зна? Експертни системи већ 15–20 година невидљиво обавијају наше друштво, али су сувише скупи и уско специјализовани да би о њима знали шири слојеви јавности.