Generatyvusis AI pastaraisiais metais padarė įspūdingą pažangą. Jis gali rašyti esė, kurti meną ir net kurti muziką. Tačiau kai kalbama apie teisingus faktus, dažnai nepavyksta. Tai gali užtikrintai pasakyti, kad zebrai gyvena po vandeniu arba kad Eifelio bokštas yra Romoje. Nors šios klaidos gali atrodyti nekenksmingos, jos rodo didesnę problemą: pasitikėjimą. Tokiose srityse kaip sveikatos priežiūra, teisė ar finansai negalime sau leisti, kad dirbtinis intelektas darytų tokias klaidas.
Čia gali padėti neurosimbolinis AI. Sujungus neuroninių tinklų galią su simbolinio AI logika, jis galėtų išspręsti kai kurias patikimumo problemas, su kuriomis susiduria generuojantis AI. Naudodami neurosimbolinį AI galime sukurti sistemas, kurios ne tik generuoja atsakymus, bet ir atsakymus, kuriais galime pasitikėti.
Kodėl generatyvus AI yra nepatikimas
Generatyvusis AI veikia analizuodamas didžiulio duomenų kiekio modelius. Taip jis nuspėja, koks žodis ar vaizdas bus toliau. Tai tarsi pažangus automatinio užbaigimo įrankis, kuris yra neįtikėtinai universalus, bet iš tikrųjų nieko „nežino“. Tai tiesiog vaidina šansus. Dėl tokio pasikliovimo tikimybėmis tai gali būti nenuspėjama. Generatyvusis AI ne visada pasirenka labiausiai tikėtiną variantą. Vietoj to, jis pasirenka iš daugybės galimybių pagal išmoktus modelius. Šis atsitiktinumas gali padaryti jį kūrybišku, tačiau tai taip pat reiškia, kad ta pati įvestis gali lemti skirtingus rezultatus. Šis nenuoseklumas tampa problema rimtose situacijose, kai mums reikia patikimų atsakymų.
Generatyvusis AI nesupranta faktų. Jis imituoja raštus, todėl kartais viską sugalvoja ir pateikia kaip tikrus. Ši AI tendencija dažnai vadinama haliucinacijomis. Pavyzdžiui, AI gali sugalvoti citatą iš garsaus asmens arba sukurti citatą, kurios nėra. Tai naudinga, kai reikia sukurti naują turinį, tačiau tai gali būti rimta problema, ypač kai dirbtinis intelektas naudojamas patarimams medicinos, teisiniais ar finansiniais klausimais. Tai gali suklaidinti žmones, kad jie pasitikėtų informacija, kuri tiesiog nėra tiesa.
Dar blogiau, kai dirbtinis intelektas daro klaidų, jis pats savaime nepasiaiškina. Neįmanoma patikrinti, kodėl buvo pateiktas tam tikras atsakymas arba kaip jį ištaisyti. Iš esmės tai yra juodoji dėžė, slepianti savo samprotavimus matematinių svorių ir tikimybių raizginyje. Tai gali būti puiku, kai prašote paprastos rekomendacijos ar atsitiktinės pagalbos, tačiau daug labiau rūpi, kai AI sprendimai pradeda daryti įtaką tokiems dalykams kaip sveikatos priežiūra, darbas ar finansai. Jei dirbtinis intelektas pasiūlo gydymą arba priima sprendimą įdarbinti, nežinant, kodėl pasirinko tokį atsakymą, sunku pasitikėti.
Iš esmės generatyvusis AI yra modelių deriklis. Tai nemąsto ir nemąsto. Jis generuoja atsakymus imituodamas duomenis, pagal kuriuos buvo apmokytas. Dėl to jis skamba žmogiškai, bet taip pat tampa trapus. Nedidelis įvesties pakeitimas gali sukelti didelių klaidų. DI statistinis pagrindas priklauso nuo modelių ir tikimybių, todėl jis savaime yra atsitiktinis. Tai gali lemti labai patikimas prognozes, net jei tos prognozės klaidingos. Didelės rizikos srityse, pavyzdžiui, teisinės konsultacijos ar medicininės rekomendacijos, šis nenuspėjamumas ir patikimumo stoka kelia rimtą pavojų.
Kaip neurosimbolinis AI padidina patikimumą
Neurosimbolinis AI galėtų išspręsti kai kuriuos iš šių generatyvaus AI patikimumo iššūkių. Jis sujungia dvi stipriąsias puses: neuroninius tinklus, atpažįstančius modelius, ir simbolinį AI, kuris naudoja logiką. Neuroniniai tinklai puikiai apdoroja sudėtingus duomenis, pvz., tekstą ar vaizdus. Simbolinis AI tikrina ir tvarko šią informaciją naudodamas taisykles. Šis derinys gali sukurti sistemas, kurios yra ne tik išmanesnės, bet ir patikimesnės.
Naudodami simbolinį AI, galime pridėti motyvacijos sluoksnį generatyviniam AI, patikrindami sugeneruotą informaciją pagal patikimus šaltinius ar taisykles. Tai sumažina AI haliucinacijų riziką. Pavyzdžiui, kai AI pateikia istorinius faktus. Neuroniniai tinklai analizuoja duomenis, kad surastų modelius, o simbolinis AI užtikrina, kad išvestis būtų tiksli ir logiškai nuosekli. Tas pats principas gali būti taikomas ir sveikatos priežiūros srityje. AI įrankis gali naudoti neuroninius tinklus paciento duomenims apdoroti, tačiau simbolinis AI užtikrina, kad jo rekomendacijos atitiktų nustatytas medicinines gaires. Šis papildomas veiksmas išlaiko tikslius ir pagrįstus rezultatus.
Neurosimbolinis AI taip pat gali suteikti skaidrumo generatyviniam AI. Kai sistema motyvuoja duomenis, ji tiksliai parodo, kaip ji gavo atsakymą. Pavyzdžiui, teisės ar finansų sektoriuose dirbtinis intelektas gali nurodyti konkrečius įstatymus ar principus, kuriuos naudojo rengdamas savo pasiūlymus. Šis skaidrumas didina pasitikėjimą, nes vartotojai gali matyti sprendimo logiką ir labiau pasitikėti dirbtinio intelekto patikimumu.
Tai taip pat suteikia nuoseklumo. Naudodamas taisykles, kuriomis vadovaujamasi priimant sprendimus, neurosimbolinis AI užtikrina, kad atsakymai išliktų pastovūs, net jei įvestis yra panaši. Tai svarbu tokiose srityse kaip finansinis planavimas, kur nuoseklumas yra labai svarbus. Loginis samprotavimo sluoksnis išlaiko AI išvestį stabilią ir pagrįstą tvirtais principais, sumažindamas nenuspėjamumą.
Kūrybiškumo ir loginio mąstymo derinys daro neurosimbolinį generacinį AI protingesnį ir saugesnį. Tai ne tik atsakymų generavimas – tai atsakymų generavimas, kuriais galite pasikliauti. Dirbtiniam intelektui vis labiau įsitraukiant į sveikatos priežiūrą, teisę ir kitose svarbiose srityse, tokios priemonės kaip neurosimbolinis AI siūlo kelią į priekį. Jie suteikia patikimumo ir pasitikėjimo, kurie tikrai svarbūs, kai sprendimai turi realių pasekmių.
Atvejo analizė: GraphRAG
GraphRAG (Graph Retrieval Augmented Generation) parodo, kaip galime sujungti generatyvaus AI ir neurosimbolinio AI stipriąsias puses. Generatyvusis dirbtinis intelektas, kaip ir didelių kalbų modeliai (LLM), gali sukurti įspūdingą turinį, tačiau dažnai sunku pasiekti tikslumą ar loginį nuoseklumą.
GraphRAG tai sprendžia derindama žinių grafikus (simbolinį AI metodą) su LLM. Žinių grafikai suskirsto informaciją į mazgus, todėl lengviau sekti ryšius tarp skirtingų faktų. Šis struktūrizuotas metodas padeda dirbtiniam intelektui išlikti pagrįstai patikimais duomenimis ir kartu generuoti kūrybingus atsakymus.
Kai užduodate GraphRAG klausimą, jis remiasi ne tik modeliais. Ji pateikia kryžmines nuorodas į savo atsakymus su patikima informacija diagramoje. Šis papildomas žingsnis užtikrina logiškus ir tikslius atsakymus, sumažindamas klaidas ar „haliucinacijas“, įprastas tradiciniame generuojamajame AI.
Neurosimbolinio ir generatyvinio AI integravimo iššūkis
Tačiau sujungti neurosimbolinį AI su generatyviniu AI nėra lengva. Šie du metodai veikia skirtingai. Neuroniniai tinklai gerai apdoroja sudėtingus, nestruktūrizuotus duomenis, pvz., vaizdus ar tekstą. Kita vertus, simbolinis AI orientuojasi į taisyklių ir logikos taikymą. Norint sujungti šiuos du dalykus, reikia pusiausvyros tarp kūrybiškumo ir tikslumo, o tai ne visada lengva pasiekti. Generatyvusis dirbtinis intelektas yra susijęs su naujų, įvairių rezultatų kūrimu, tačiau simbolinis DI viską pagrįsti logika. Rasti būdą, kaip priversti abu dirbti kartu nepakenkiant našumui, yra sudėtinga užduotis.
Ateities nurodymai
Žvelgiant į ateitį, yra daug galimybių pagerinti neurosimbolinio AI veikimą naudojant generatyvius modelius. Viena įdomi galimybė yra sukurti hibridines sistemas, kurios gali persijungti tarp dviejų metodų, priklausomai nuo to, ko reikia. Atliekant užduotis, kurioms reikalingas tikslumas ir patikimumas, pavyzdžiui, sveikatos priežiūros ar teisės srityse, sistema gali labiau remtis simboliniais samprotavimais. Kai reikia kūrybiškumo, jis gali pereiti prie generatyvaus AI. Taip pat dirbama, kad šios sistemos būtų suprantamesnės. Patobulinę, kaip galime sekti jų samprotavimus, padės sukurti pasitikėjimą ir pasitikėjimą. AI ir toliau tobulėjant, neurosimbolinis AI gali padaryti sistemas išmanesnes ir patikimesnes, užtikrinant, kad jos būtų kūrybingos ir patikimos.
Esmė
Generatyvusis dirbtinis intelektas yra galingas, tačiau dėl jo nenuspėjamumo ir supratimo stokos jis yra nepatikimas tokiose svarbiose srityse kaip sveikatos priežiūra, teisė ir finansai. Neurosimbolinis AI galėtų būti sprendimas. Sujungus neuroninius tinklus su simboline logika, jis prideda samprotavimo, nuoseklumo ir skaidrumo, sumažina klaidų skaičių ir padidina pasitikėjimą. Šis metodas ne tik daro AI išmanesnį, bet ir užtikrina, kad jo sprendimai būtų patikimi. Kadangi AI vaidina didesnį vaidmenį svarbiose srityse, neurosimbolinis AI siūlo kelią į priekį – tokį, kuriame galime pasikliauti AI pateiktais atsakymais, ypač kai rizikuojama gyvybei ir pragyvenimui.