Kai įeiname į 2025 m., Dirbtinio intelekto sektorius stovi esminėje posūkio taške. Nors pramonė ir toliau pritraukia precedento neturintį investicijų ir dėmesio lygį, ypač generaciniame AI kraštovaizdyje, gresia pagrindinė rinkos dinamika rodo, kad ateinančiais metais mes einame link didelio AI kraštovaizdžio pokyčių.
Remdamasis savo patirtimi, vadovaujančia AI startuoliu ir stebint spartą pramonės evoliuciją, manau, kad šie metai sukels daug esminių pokyčių: iš didelių koncepcijų modelių (LCMS), tikimasi, bus rimti konkurentai dideliems kalbų modeliams (LLMS), augant augant Specializuota AI aparatinė įranga didelėms technologijų kompanijoms, pradedančioms pagrindinius AI infrastruktūros kūrimo priemones, kurios pagaliau suteiks jiems galimybę pasiekti tokius pradedančiuosius įrenginius kaip „Openai“ ir „Anthropic“-ir kas žino, galbūt net užsitikrinti savo AI monopoliją.
Unikalus PG kompanijų iššūkis: nei programinė įranga, nei aparatinė įranga
Pagrindinė problema slypi tuo, kaip AI įmonės veikia anksčiau nematytame tradicinės programinės įrangos ir aparatinės įrangos įmonėse. Skirtingai nuo grynų programinės įrangos kompanijų, kurios pirmiausia investuoja į žmogiškąjį kapitalą su palyginti mažomis veiklos sąnaudomis, arba aparatinės įrangos įmonės, kurios daro ilgalaikes kapitalo investicijas su aiškiais grąžos keliais, AI įmonės susiduria su unikaliu iššūkių deriniu, dėl kurio jų dabartiniai finansavimo modeliai tampa nestabiliais.
Šios įmonės reikalauja didžiulių išankstinių kapitalo išlaidų GPU klasteriams ir infrastruktūrai, kasmet išleisdamos 100–200 mln. USD vien tik skaičiavimo ištekliams. Vis dėlto, skirtingai nei aparatinės įrangos įmonės, jos negali amortizuoti šių investicijų per ilgą laiką. Vietoj to, jie veikia suspaustus dvejų metų ciklus tarp finansavimo etapų, kiekvieną kartą, kai reikia parodyti eksponentinį augimą ir pažangiausias našumas, kad pateisintų kitą jų vertinimo žymėjimą.
LLMS diferenciacijos problema
Prie šio struktūrinio iššūkio pridedama svarbi tendencija: greitas didelio kalbos modelio (LLM) galimybių suartėjimas. Pradedančios įmonės, kaip ir „Unicorn Mistral AI“ ir kiti, parodė, kad atvirojo kodo modeliai gali pasiekti našumą, palyginamą su jų uždaro kodo kolegomis, tačiau techninė diferenciacija, kurią anksčiau pateisino dangaus aukščio vertinimai, tampa vis sunkesni.
Kitaip tariant, nors kiekvienas naujas LLM gali pasigirti įspūdingu našumu, pagrįstu standartiniais etalonais, tikrai reikšmingas pagrindinės modelio architektūros poslinkis nevyksta.
Dabartiniai šios srities apribojimai kyla iš trijų kritinių sričių: duomenų prieinamumaskaip mums trūksta aukštos kokybės treniruočių medžiagos (kaip neseniai patvirtino Elonas Muskas); Kuravimo metodaines jie visi priima panašius žmogaus grįžtamojo ryšio metodus, kuriuos pradėjo Openai; ir Kompiuterinė architektūranes jie remiasi tuo pačiu ribotu specializuotos GPU aparatinės įrangos fondu.
Tai, kas kyla, yra modelis, kai vis dažniau gaunamas nauda dėl efektyvumo, o ne masto. Bendrovės daugiausia dėmesio skiria daugiau žinių suspaudimui į mažiau žetonų ir kurti geresnius inžinerinius artefaktus, tokius kaip paieškos sistemos, tokios kaip grafinių skudurų (gavimo atvejų karta). Iš esmės mes artėjame prie natūralaus plokščiakalnio, kuriame, norint išmesti daugiau išteklių į problemą, sumažėja grąža.
Dėl precedento neturinčio naujovių tempo per pastaruosius dvejus metus šis LLM galimybių suartėjimas vyksta greičiau, nei kas nors tikėjosi, sukuriant lenktynes prieš laiką įmonėms, kurios surinko lėšas.
Remiantis naujausiomis tyrimų tendencijomis, kita siena, kuria spręsti šią problemą, yra didelių koncepcijų modelių atsiradimas (LCMS). Kaip nauja, novatoriška architektūra, konkuruojanti su LLM jų pagrindinėje srityje, tai yra natūralaus kalbos supratimas (NLP).
Techniškai kalbant, LCMS turės keletą pranašumų, įskaitant galimybes geresniam našumui, turinčiam mažiau iteracijų, ir galimybę pasiekti panašių rezultatų su mažesnėmis komandomis. Manau, kad šias naujos kartos LCMS sukūrė ir komercializuos „Spin-Off“ komandos, garsiosios „buvusio„ Big Tech “„ Mavericks “, įkurdami naujus startuolius, kurie pradėtų šią revoliuciją.
Ginimavimo laiko juostos neatitikimas
Inovacijų ciklų suspaudimas sukūrė dar vieną kritinį klausimą: neatitikimas tarp laiko iki rinkos ir tvaraus pajamų. Nors mes matome precedento neturintį AI programų vertikalumo greitį-pavyzdžiui, su balso AI agentais, pereinant nuo koncepcijos iki pajamų generuojančių produktų per tik mėnesius, ši greita komercializacija sukelia gilesnę problemą.
Apsvarstykite tai: AI startuolis, kurio vertė siekia 20 milijardų JAV dolerių, greičiausiai, per 4-5 metus turės uždirbti apie 1 milijardą dolerių metines pajamas, kad pateisintų viešumą esant pagrįstai daugybei. Tam reikia ne tik technologinės kompetencijos, bet ir dramatiško viso verslo modelio pertvarkymo, pradedant nuo R&D, orientuotų į pardavimus, išlaikant naujovių tempą ir valdant milžiniškas infrastruktūros išlaidas.
Šia prasme nauji LCM orientuoti startuoliai, kurie atsiras 2025 m., Bus geresnės pozicijos, kad surinktų finansavimą, o mažesni pradiniai vertinimai taps patrauklesni investuotojams.
Aparatūros trūkumas ir kylančios alternatyvos
Pažvelkime atidžiau konkrečiai į infrastruktūrą. Šiandien kiekvienas naujas GPU klasteris yra perkamas dar prieš tai, kai jį sukuria didieji žaidėjai, priversdami mažesnius žaidėjus įsipareigoti sudaryti ilgalaikes sutartis su debesų tiekėjais arba rizikuoti, kad visiškai išjungti rinką.
Bet štai kas yra tikrai įdomu: kol visi kovoja dėl GPU, aparatūros kraštovaizdžio pokyčiai buvo žavūs, kurie vis dar yra nepastebimi. Dabartinė GPU architektūra, vadinama GPGPU (bendrosios paskirties GPU), yra neįtikėtinai neveiksmingas to, ko daugumai kompanijų iš tikrųjų reikia gamyboje. Tai panašu į superkompiuterio naudojimą skaičiavimo programos paleidimui.
Štai kodėl aš manau, kad specializuota AI aparatinė įranga bus kitas didelis mūsų pramonės pamaina. Bendrovės, tokios kaip „Groq“ ir „Cerebras“, kuria konkrečią išvadą būdingą aparatinę įrangą, kuri yra 4–5 kartus pigiau, nei tradiciniai GPU. Taip, norint optimizuoti šių platformų modelius, yra didesnės inžinerijos išlaidos, tačiau įmonėms, atliekančioms didelio masto išvadų darbo krūvius, efektyvumo padidėjimas yra aiškus.
Duomenų tankis ir mažesnių, protingesnių modelių kilimas
Persikuriant kitoje inovacijų pasienyje AI greičiausiai reikės ne tik didesnės skaičiavimo galios, ypač dideliems modeliams, tokiems kaip LCM, bet ir turtingesni, išsamesni duomenų rinkiniai.
Įdomu tai, kad mažesni, efektyvesni modeliai pradeda ginčyti didesnius, pasinaudodami tuo, kaip tankiai jie mokomi turimų duomenų. Pavyzdžiui, tokie modeliai, tokie kaip „Microsoft“ „Feefree“ ar „Google“ „Gema2B“, veikia su daug mažiau parametrų – dažnai maždaug nuo 2 iki 3 milijardų – pasiekia našumo lygius, palyginamus su daug didesniais modeliais, turinčiais 8 milijardus parametrų.
Šie mažesni modeliai vis labiau konkurencingi dėl didelio duomenų tankio, todėl jie yra tvirti, nepaisant jų dydžio. Šis perėjimas prie kompaktiškų, tačiau galinių modelių suderinamas su strateginiais pranašumais, tokiomis kaip „Microsoft“ ir „Google Hold“: prieiga prie masinių, įvairių duomenų rinkinių per tokias platformas kaip „Bing“ ir „Google Search“.
Ši dinamika atskleidžia du kritinius „karų“, atsiskleidžiančių AI plėtroje: vienas perpildytą galią, o kitas – per duomenis. Nors skaičiavimo ištekliai yra būtini norint nustumti ribas, duomenų tankis tampa vienodai, jei ne daugiau – kritiškai. Bendrovės, turinčios prieigą prie didelių duomenų rinkinių, yra unikalios galimybės mokyti mažesnius modelius, kurių efektyvumas ir tvirtumas yra neprilygstamas, ir sustiprina savo dominavimą besivystančiame AI kraštovaizdyje.
Kas laimės AI karą?
Šiame kontekste visi mėgsta domėtis, kas dabartiniame AI kraštovaizdyje yra geriausia, kad pasirodytų laimėjimas. Štai šiek tiek maisto mintims.
Pagrindinės technologijų kompanijos prieš statybą iš anksto įsigijo visas GPU klasterius, sukurdamos mažesnių žaidėjų trūkumo aplinką. „Oracle“ daugiau nei 100 000 GPU užsakymas ir panašūs „Meta“ ir „Microsoft“ žingsniai iliustruoja šią tendenciją.
Į AI iniciatyvas investavusios šimtus milijardų, šios įmonės reikalauja tūkstančių specializuotų AI inžinierių ir tyrėjų. Tai sukuria precedento neturintį talentų poreikį, kurį galima patenkinti tik per strateginius įsigijimus – greičiausiai daugelis startuolių bus įsisavinta artimiausiais mėnesiais.
Nors 2025 m. Bus išleista didelio masto moksliniams tyrimams ir plėtrai ir infrastruktūros kūrimui tokiems veikėjams, iki 2026 m. Jie galės streikuoti kaip niekad anksčiau dėl neprilygstamų išteklių.
Tai nereiškia, kad mažesnės AI kompanijos yra pasmerktos – nuo jos. Sektorius ir toliau diegs naujoves ir sukurs vertę. Tikėtina, kad kai kurioms pagrindinėms sektoriaus naujovėms, tokioms kaip LCMS, ateinančiais metais vadovaus mažesni, kylantys veikėjai kartu su „Meta“, „Google“/„Alphabet“ ir „Openai“ su antropic, kurie šiuo metu dirba prie įdomių projektų.
Tačiau greičiausiai pamatysime esminį pertvarkymą, kaip AI įmonės yra finansuojamos ir vertinamos. Kai rizikos kapitalas tampa labiau diskriminuojantis, įmonės turės parodyti aiškius tvaraus vieneto ekonomikos kelius-ypatingą iššūkį atvirojo kodo verslui, konkuruojančiai su gerai gaunamomis patentuotomis alternatyvomis.
Konkrečiai kalbant apie atvirojo kodo AI įmones, į priekį gali reikėti sutelkti dėmesį į konkrečias vertikalias programas, kai jų skaidrumo ir pritaikymo galimybės suteikia aiškių pranašumų, palyginti su patentuotais sprendimais.
Source link