Људи који се у пресудној мери идентификују са својим занимањем најчешће су програмери, лекари, адвокати и менаџери. Управо су то професије које су данас најизложеније убрзаним променама повезаним са развојем вештачке интелигенције.
Већ на први поглед може се уочити јасна корелација: AI револуција најснажније утиче на оне професионалне области у којима је идентитет био најчвршће заснован на знању. Но, ништа боље није ни на другој страни, јер се ни занимања која захтевају недигитализоване физичке вештине, не могу сматрати заштићеним. Роботи још увек не поседују довољно прецизну моторичку интелигенцију, али економија не чека технолошку савршеност. Потребно је да аутоматизација буде употребљива и јефтина.
Пад цене софтверских компоненти у роботима већ убрзава тај процес. Истовремено, људи истиснути из дигитализованих професија преливаће се у ова, наизглед сигурна, занимања, обарајући цену рада и тамо. Коначни ефекат није масовна незапосленост, већ општа дефлација вредности људског рада. У том контексту, питање више није које је занимање безбедно, већ шта остаје од идентитета онима којима знање више није довољно да их дефинише.
Овако посматрано, могло би се учинити да је у проблему само западна цивилизација, она која је у своје темеље уградила рационалност и знање као главне изворе вредности и идентитета. Управо сами темељи сада остају машински надмашени. Међутим, како се и остатак света укључио у исту технолошку трку, проблем се неминовно прелио и ван Запада. AI није културно условљена; она прати логику ефикасности, а та логика не познаје границе.
Другим речима, удар AI револуције не погађа цивилизације као географске целине, већ наративе кроз које људи разумеју себе. А тај наратив је данас, у великој мери, глобално западни. Тај наратив постајаће све западнији управо зато што све више користимо машине трениране по том обрасцу и тај процес расте експоненцијално, у сваком смислу. Том брзином урушавају се и темељи на којима је Запад почивао, јер се по први пут појављује ентитет који је надмашио човека у рационалности, организацији, технократији и обради знања, у ономе што они тврде да јесу.
Једино отворено питање остаје: шта ће бити са потрошачком компонентом те цивилизације, са економијом која почива на сталном расту, жељи и потрошњи? Ни друга кључна компонента, индивидуализам, још увек није добила јасан облик у овом прелазном периоду. Међутим, већ сада се могу препознати обрасци функционисања заједница састављених од јаких индивидуалаца. Они или успевају да се организују у јаку државу, која штити њихове личне слободе онолико колико су спремни и способни да плаћају порезе и да изолују оне који то не чине, или (ако нису способни за такву организацију) управљање њиховим колективним интересима преузимају интересне групе окупљене око невладиних организације оних који јесу способне да се организују.
Такви појединци умеју да наступају заједно искључиво у интересном смислу, али нису у стању да покажу истинску солидарност, а камоли жртву јер би то било у супротности са њиховим прокламованим начелима. У том зачараном кругу они нису способни да сами себи организују жељени стандард без спољне интервенције и манипулације над заједницама које поседују јаке националне и колективне особине. Када та манипулација не успе, прва реакција није самокритика, већ исмевање - напад на традиционалне вредности оних који су се показали отпорним.Парадоксално овим тезама је то да се управо на Западу појављују иницијативе за решавање ових глобалних ломова. Управо појединци и мање групе на Западу успевају да организују акције којима се AI чини доступним свима, без обзира на статус, порекло или институционалну моћ.
Један од најпознатијих примера је Emad Mostaque, британски предузетник бангладешког порекла, који је постао симбол open-source приступа демократизацији вештачке интелигенције. Он не само да заговара такав приступ, већ га и практично спроводи кроз пројекте који омогућавају да свако ко поседује просечан лап-топ може да понуди бенефите вештачке интелигенције укључујући training modela, управљање њима и рад са сопственим скуповима података.
Истовремено, развијају се и технологије које такве појединце могу умрежити, чиме се додатно повећава квалитет тренинга, као и прецизност semantic prediction система. Тиме се ствара паралелна инфраструктура знања која не зависи од централизованих корпоративних или државних структура.
Поред ових конкретних корака, Mostaque је у својој књизи The Last Economy изнео тезу да ће у наредних приближно 1.000 дана (отприлике до 2028. године) постојећи економски систем постати неодржив, па чак и „пукнути“, јер ће AI обављати већину когнитивног рада неупоредиво јефтиније од људи. Своју озбиљност и посвећеност теми потврдио је тиме што је књигу учинио бесплатно доступном на интернету, због чега нема потребе улазити у тумачења његових намера.
Оно што је на мене оставило најјачи утисак није сама прогноза, већ упозорење о негативним последицама чак и у одсуству лоше намере. Другим речима, проблем не мора настати из злоупотребе, већ из саме динамике система који се креће брже него што друштво може да му прилагоди смисао, вредности и структуре.
Оно што је било посебно занимљиво у његовим јавним гостовањима јесте потврдан одговор на, наизглед сензационалистичко, питање водитеља: да ли богати инвеститори који највише улажу у AI заиста граде бункере како би се заштитили од евентуалног „напада“ вештачке интелигенције? Још ефектније била је његова инсинуација да се ти бункери можда и не граде против AI, већ против побуне незадовољних маса у транзиционом периоду!
У једном од објашњења наизглед компликованог питања - шта ако AI тренира неко са лошим намерама - понудио је изненађујуће једноставан одговор који тера на дубље размишљање: а шта ако се AI тренира на лажима? Свакодневно се сусрећемо са људима који износе неистине, а те неистине улазе у алгоритме LLM модела, где се статистички предвиђа вероватноћа односа између речи. На тај начин и лаж постаје део „знања“ и искуства најмоћнијих интелигентних ентитета.
Међутим, ако се у том размишљању иде до краја, долази се до непријатног, али нужног закључка: ни највећа књижевна дела нису документарна. Она обилују измишљеним ликовима и догађајима (формално гледано, лажима) али те лажи не воде ка погрешним закључцима. Напротив. Највећа уметничка дела управо јесу производ фикције, а њихова дигитализација директно утиче на вероватноћу какве ће одговоре AI понудити. Која је лаж добра, а која злонамерна?
Додатни проблем настаје у томе што су готово сва савремена уметничка дела истовремено и потрошачка роба, те као таква под снажним утицајем наратива који се обликују кроз спонзорства и токове новца. Уметници се често позивају на уметничке слободе, док истовремено задржавају право на профит који произилази искључиво из плаћеног наратива. Тај парадокс, слобода израза уз финансијску условљеност, изузетно је тешко „истренирати“ чак и природној интелигенцији, а камоли алгоритмима.
Када би се, на пример, редитељ неког филма у потпуности одрекао профита оствареног тим делом, његов позив на уметничку слободу не би био лицемеран. Али управо ту настаје проблем: како у алгоритам уградити разлику између слободе и интереса, између уметничког израза и плаћеног наратива? То је сложеност са којом се не суочава само AI, већ и друштво које га тренира.
А шта је онда нама чинити? У конкретном случају шта је мени чинити. Није довољно признати да нисам компетентан да дајем одговоре и да их морају формулисати интелектуалци који припадају нашем културолошком, духовном и идентитетском обрасцу. За сада, у одсуству таквог мишљења, ми се чини да је моје да сачувам способност за критички став.
На пример, у разговорима са AI приметио сам да је изненађујуће добро интерпретирао мислиоце које сматрам највалиднијим за сопствени систем доношења одлука. Или је AI још увек у некој пубертетској, наивној фази у којој не уме довољно софистицирано да лаже, или још увек не постоји озбиљна интервенција над LLM моделима, или је тренинг за манипулативну интелигенцију знатно сложенији процес који тек долази, или је AI ван контроле сам по себи.
У интерпретацији ставова Јустина Поповића, у покушају да се реконструише највероватнији одговор који би дао на данашње изазове вештачке интелигенције, примећујем добру намеру, али и ограничење. AI не успева да добаци до суштине порука коју су наши духовници заиста слали. Зато са нестрпљењем очекујем мишљења својих савременика који ће се овом темом бавити са стварним духовним ауторитетом.
И сам сам се неколико пута довео у стање прелести, размишљајући како би било корисно тренирати AI на моделу који следи мисаони образац Јустина Поповића!!! У тим тренуцима сам и сам себи био смешан. Ипак, свакоме бих препоручио разговор у коме бисте AI питали шта би ваш омиљени мислилац имао да каже о изазовима везаним за AI. То јесте перпетуално искуство, али од нечега се мора почети.
Тако на питање могућности настанка self-driven government (система који, попут self-driven аутомобила, управља без људског расуђивања) неминовно се отвара контра-питање које би постави православни духовник: како изгледа држава која не познаје праштање? А ако би се праштање покушало уградити у алгоритам, остаје кључна недоумица: како дигитализовати искуство исповести, интиме и личног преображаја?
Додатно бих предложио да се у тај разговор унесе и увек обавезан контекст: живимо у времену у коме се киднапују председници држава које немају нуклеарно оружје, док се истовремено отимају бродови државама које га имају. У тај контекст вреди уметнути и одговор на Emad-ову провокацију да је, историјски гледано, сваки пут када се појавио вишак радне снаге, тај проблем решаван ратом.
Уместо класичног закључка, изнео бих личне утиске из разговора са AI на тему шта би мој омиљени мислилац имао да каже о вештачкој интелигенцији у овој фази њеног развоја. Статистички највероватнији одговори Жарка Видовића (1930-2005) могли би се читати као савети:
- Технологију не треба митски уздизати као замену за људску слободу, морал, духовност или смисао живота. Она није способна да надомести човека у дубљем, духовном смислу.
- Прегршт технолошких могућности не сме нас одвести у заборав шта значи бити човек, јер истинско разумевање и смисао не потичу из алгоритама, већ из унутрашњег и духовног искуства.
- Иако AI може да помаже у задацима и повећа ефикасност, људска слобода, креативност и вредности остају супериорне у целини људског постојања.
-AI је савршени производ Запада, али не и знак његове зрелости. Цивилизација која жели да замени човека машином већ је признала да не разуме човека.
- У том смислу, Жарко Видовић није био мислилац страха. Он не би упозоравао на „машине које преузимају власт“, већ на нешто много опасније: људе који се добровољно одричу одговорности, одлуке и слободе.
- Ту AI постаје оправдање („тако је систем одлучио“), алиби за власт, замена за савест. Он би рекао да AI не укида слободу, већ да слободу укида човек који жели да не буде слободан.
- По Видовићевој логици, будућност се неће делити на технолошки напредне и технолошки заостале, већ на оне који живе у функцији и оне који живе у смислу.
- Видовић је увек мислио из перспективе историјског искуства малих народа. Он би упозорио:
Народ који нема духовни идентитет биће само корисник туђих алгоритама.
P.S.
Подаци и закључци наведени у овом тексту тачни су онолико колико је разумно веровати AI.