Sveiki atvykę į mūsų savaitės žmogaus sukurtų AI naujienų apžvalgą.
Šią savaitę OpenAI išdalino API gėrybes.
Kalifornijos AI saugos įstatymas buvo nužudytas.
O NVIDIA mus nustebino galingu atviru modeliu.
Pasigilinkime.
Čia ateina agentai
„OpenAI“ savo „Dev Day“ renginyje nepaskelbė jokių naujų modelių (ar „Sora“), tačiau kūrėjai džiaugėsi naujomis API funkcijomis. Realtime API pakeis žaidimus, kad sukurtų išmanesnes programas, kurios bendrautų su vartotojais ir netgi veiktų kaip agentai.
Demonstracija buvo tikrai šauni.
Sklido gandai apie tai, kad „OpenAI“ eina „pelno siekimo“ keliu ir Sam Altmanui skyrė milijardus dolerių nuosavybės, tačiau Altmanas juos atmetė. Nepaisant to, bendrovė siekia daugiau investicijų ir tikisi šiek tiek grąžos už pinigus.
„Apple“ integravo „OpenAI“ modelius į savo įrenginius, tačiau iškrito iš paskutinio finansavimo etapo OpenAI kuri turėtų surinkti apie 6,5 mlrd.
Nesame tikri, kodėl „Apple“ nenori „OpenAI pyrago“ gabalo, bet tai gali turėti ką nors bendro su naujais jos pokyčiais. Apple Intelektas. O gal tai susiję su Samo Altmano išskirtinumo reikalavimu.
Pasakyk man, kad neturi griovio, bet nesakyk, kad neturi griovio. pic.twitter.com/3I18MosvOg
– Pedro Domingos (@pmddomingos) 2024 m. spalio 3 d
Nužudyti sąskaitą
Gavinas Newsomas turėjo apsispręsti, ar dirbtinio intelekto kūrėjams pritaikyti apsauginį apsukų ribotuvą, ar leisti jiems judėti į priekį. Galų gale jis nusprendė vetuoti Kalifornijos SB 1047 AI saugos sąskaitą ir pasiūlė keletą įdomių priežasčių.
Ar tikrai dar susiduriame su tikra AI rizika?
Na, tai greitai išaugo https://t.co/xhZCITRJjE pic.twitter.com/aLZn4blS8G
– AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 2024 m. rugsėjo 30 d
Per pastarąjį mėnesį „Newsom“ pasirašė daugybę dirbtinio intelekto įstatymų, susijusių su klastotėmis, dirbtinio intelekto vandens ženklais, vaikų sauga, atlikėjų AI teisėmis ir dezinformacija rinkimuose. Praėjusią savaitę jis pasirašė AB 2013, kuris tikrai supurtys dalykus LLM kūrėjams.
Įstatyme teigiama, kad 2026 m. sausio 1 d. arba anksčiau kūrėjai turės pateikti aukšto lygio visų modelių, pagamintų nuo 2022 m. sausio 1 d., mokymo duomenų rinkinio santrauką, jei modelis bus prieinamas Kalifornijoje. Kai kurie iš šių reikalavimų gali atskleisti kai kurias nešvarias paslaptis.
Daugiau ES AI taisyklių
Akivaizdu, kad ES yra daug labiau susirūpinusi AI sauga nei likęs pasaulis. Arba taip, arba jiems tiesiog patinka rašyti ir priimti teisės aktus. Šią savaitę jie pradėjo projektą, skirtą dirbtinio intelekto kodekso rašymui, siekiant suderinti naujoves ir saugumą.
Kai pamatysite, kas vadovauja saugos techninei grupei, gerai suprasite, į kurią pusę jie pasisuks.
Skystųjų pamatų modeliai
Transformatorių modeliai suteikė mums „ChatGPT“, tačiau pastaruoju metu buvo daug diskusijų apie tai, ar jie pasieks kitą DI šuolį. Kompanija, pavadinta Liquid AI, kratosi reikalų su savo Liquid Foundation Models (LFM).
Tai nėra jūsų tipinės generacinės AI. LFM yra specialiai optimizuoti ilgesnio konteksto duomenims tvarkyti, todėl jie idealiai tinka užduotims, kurios turi tvarkyti nuoseklius duomenis, pvz., tekstą, garsą ar vaizdo įrašą.
LFM pasiekia įspūdingą našumą su daug mažesniu modeliu, mažiau atminties ir mažiau skaičiavimo.
Atsidaro NVIDIA
„Nvidia“ ką tik atsisakė žaidimo keitiklio: atvirojo kodo AI modelį, kuris puikiai derinamas su dideliais žaidėjais, tokiais kaip „OpenAI“ ir „Google“. Jų naujoji NVLM 1.0 serija, vadovaujama pavyzdinio 72B parametro NVLM-D-72B, puikiai tinka tiek vizijos, tiek kalbos užduotyse, taip pat išlyginant tik teksto galimybes.
Atsižvelgiant į atvirus svorius ir NVIDIA pažadą išleisti kodą, tampa vis sunkiau pateisinti mokėjimą už patentuotus modelius daugeliu atvejų.
Tiesiog sakyk, kad žinok
Naujas tyrimas parodė, kad naujausi didžiųjų kalbų modeliai (LLM) rečiau prisipažįsta, kai nežino atsakymo į vartotojo klausimą. Kai vartotojai užduoda šiems modeliams klausimą, jie labiau linkę ką nors sugalvoti, o ne prisipažinti, kad nežino atsakymo.
Tyrime pabrėžiama, kad reikia esminių poslinkių kuriant ir plėtojant bendrosios paskirties dirbtinį intelektą, ypač kai jis naudojamas itin svarbiose srityse. Tyrėjai vis dar bando suprasti, kodėl dirbtinio intelekto modeliai taip nori mums įtikti, užuot sakę: „Atsiprašau, aš nežinau atsakymo“.
AI viduje
Atrodo, kad visi savo gaminiams klijuoja „AI“ etiketę, kad pritrauktų klientus. Štai keletas AI varomų įrankių, kuriuos iš tikrųjų verta patikrinti.
Bluedot: Įrašykite, perrašykite ir apibendrinkite savo susitikimus naudodami dirbtinio intelekto sugeneruotas pastabas be roboto.
Vadovaujama: „Guidde“ stebuklingai paverčia jūsų darbo eigas nuosekliais vaizdo įrašų vadovais, su AI sugeneruotais balso perspėjimais ir profesionalaus lygio vaizdiniais, vos keliais paspaudimais.
Kitose naujienose…
Štai keletas kitų paspaudimų vertų AI istorijų, kuriomis džiaugėmės šią savaitę:
Ir tai yra įvyniojimas.
Jei gyvenate Kalifornijoje, norėtume sužinoti, kaip manote, kad SB 1047 bus vetuotas. Ar tai praleista galimybė dirbtinio intelekto saugumui užtikrinti, ar teigiamas žingsnis, dėl kurio netrukus gausime AGI? Su galingais atvirojo kodo modeliais, tokiais kaip nauja NVIDIA bomba, vis tiek bus sunkiau reguliuoti LLM.
OpenAI Realtime API buvo šios savaitės akcentas. Net jei nesate kūrėjas, galimybė bendrauti su išmanesniais klientų aptarnavimo robotais, kurie kalba su jumis, yra gana šauni. Nebent dirbate klientų aptarnavimo agentu ir norėtumėte išlaikyti savo darbą.
Praneškite mums, ką manote, sekite mus X ir atsiųskite mums nuorodas į įdomius AI dalykus, kurių galbūt praleidome.