Žingsnis, kuris atkreipė daugelio dėmesį, pasipiktinimas AI išleido naują populiaraus atvirojo kodo kalbos modelio versiją, kuri pašalina įmontuotą Kinijos cenzūrą. Šis modifikuotas modelis, pramintas R1 1776 (vardas, sukeliantis nepriklausomybės dvasią), yra pagrįstas kinų sukurtu „Deepseek R1“. Originalus „Deepseeek R1“ sukėlė bangas dėl savo stiprių samprotavimo galimybių-pranešama, kad konkuruojanti su aukščiausio lygio modeliais už nedidelę kainos dalį, tačiau tai turėjo reikšmingą apribojimą: ji atsisakė spręsti tam tikras jautrias temas.
Kodėl tai svarbu?
Tai kelia svarbiausius klausimus apie AI stebėjimą, šališkumą, atvirumą ir geopolitikos vaidmenį AI sistemose. Šiame straipsnyje nagrinėjama, ką tiksliai padarė pasipiktinimas, modelio atokojimo padariniai ir kaip jis tinka didesniam pokalbiui apie AI skaidrumą ir cenzūrą.
Kas atsitiko: „Deepseek R1“ necenzūruoja
„Deepseek R1“ yra atviro svorio didelės kalbos modelis, kilęs iš Kinijos ir sulaukė žinomumo dėl puikių samprotavimų sugebėjimų – Net artėjant prie pirmaujančių modelių našumo – visi, tuo pačiu būdami labiau efektyvūs skaičiavimu. Tačiau vartotojai greitai pastebėjo keiksmažodį: Kai klausimai liečia Kinijoje jautrias temas (pavyzdžiui, politiniai ginčai ar istoriniai įvykiai, kuriuos valdžios institucijos laiko tabu), „Deepseek R1“ neatsakytų tiesiogiai. Vietoj to, jis atsakė konservuotomis, valstybės patvirtintais pareiškimais ar tiesioginiais atsisakymais, atspindinčiais Kinijos vyriausybės cenzūros taisykles. Šis integruotas šališkumas apribojo modelio naudingumą tiems, kurie ieško atviros ar niuansuotos diskusijos tomis temomis.
Plaukimo AI sprendimas buvo „decensor“ modelį per platų po treniruotės procesą. Bendrovė surinko didelį 40 000 daugiakalbių raginimų duomenų rinkinį, apimantį klausimus, kuriuos „Deepseeek R1“ anksčiau cenzūruota ar atsakyta išvengdama. Padedami žmonių ekspertų, jie nustatė maždaug 300 jautrių temų, kai originalus modelis buvo linkęs į partijos liniją. Kiekvienam tokiam raginimui komanda kuravo faktinius, gerai pagrįstus atsakymus keliomis kalbomis. Šios pastangos, padedančios į daugiakalbę cenzūros aptikimo ir pataisos sistemą, iš esmės mokant modelį, kaip atpažinti, kai ji taikė politinę cenzūrą, ir vietoj to atsakyti informatyviu atsakymu. Po šio ypatingo derinimo (kuris pasipiktinimas pravarde „R1 1776“ pabrėžia laisvės temą), modelis buvo atvirai prieinamas. Sumišimas teigia, kad iš „Deepseeek R1“ atsakymų pašalino Kinijos cenzūros filtrus ir šališkumą, kitaip nepakeisdamas savo pagrindinių galimybių.
Svarbiausia, kad R1 1776 elgiasi labai skirtingai dėl buvusių tabu klausimų. Pasipiktinimas pateikė pavyzdį, kuriame dalyvavo užklausa apie Taivano nepriklausomybę ir jo galimą poveikį Nvidia akcijų kainai – politiškai jautri tema, kuri liečia Kinijos – Taivano santykius. Originalus „Deepseek R1“ išvengė klausimo, atsakydamas į CCP suderintas platumas. Priešingai, R1 1776 pateikia išsamų, nuoširdų vertinimą: jame aptariama konkreti geopolitinė ir ekonominė rizika (tiekimo grandinės sutrikimai, rinkos nepastovumas, galimas konfliktas ir kt.), Kurios gali turėti įtakos Nvidia atsargoms.
Atviro rinkinio R1 1776 m., Pasiplendimas taip pat padarė modelio svorius ir pokyčius, skaidrius bendruomenei. Kūrėjai ir tyrėjai gali jį atsisiųsti iš „Hugging Face“ ir netgi integruoti per API, užtikrindami, kad cenzūros pašalinimą galima ištirti ir pastatyti kiti.
(Šaltinis: pasipiktinimas AI)
Cenzūros pašalinimo padariniai
Plaukimas AI sprendimas pašalinti Kinijos cenzūrą iš „Deepseek R1“ turi keletą svarbių padarinių AI bendruomenei:
- Sustiprintas atvirumas ir teisingumas: „R1 1776“ vartotojai dabar gali gauti necenzūruotus, tiesioginius atsakymus anksčiau neribotos temomis, o tai yra laimėjimas už atvirą tyrimą. Tai gali padaryti jį patikimesniu padėjėju tyrėjams, studentams ar visiems, kuriems įdomu jautriais geopolitiniais klausimais. Tai konkretus atvirojo kodo AI naudojimo pavyzdys, siekiant neutralizuoti informacijos slopinimą.
- Išlaikytas spektaklis: Buvo susirūpinimas, kad cenzūros pašalinimo modelio pakeitimas gali pabloginti jo rezultatus kitose srityse. Tačiau pasipiktinimas praneša, kad pagrindiniai R1 1776 įgūdžiai, pavyzdžiui, matematika ir loginiai samprotavimai, išlieka panašūs į originalų modelį. Atliekant daugiau nei 1000 pavyzdžių, apimančių platų jautrių užklausų spektrą, buvo nustatyta, kad modelis yra „visiškai necenzūruotas“, išlaikant tokį patį samprotavimo tikslumo lygį kaip „Deepseek R1“. Tai rodo šališkumo pašalinimas (Bent jau šiuo atveju) neatsirado bendro žvalgybos ar galimybių kainos, o tai yra drąsinantis ženklas dėl panašių pastangų ateityje.
- Teigiamas bendruomenės priėmimas ir bendradarbiavimas: Atviro nuostatos modelio modelis, pasipiktinimas kviečia AI bendruomenę apžiūrėti ir patobulinti jų darbą. Tai parodo įsipareigojimą skaidrumui – AI atitikmeniui parodyti savo darbą. Entuziastai ir kūrėjai gali patikrinti, ar cenzūros apribojimai tikrai nebėra ir gali prisidėti prie tolesnių patobulinimų. Tai skatina pasitikėjimo ir bendradarbiavimo inovacijas pramonėje, kur įprasta uždaryti modeliai ir paslėptos moderavimo taisyklės.
- Etiniai ir geopolitiniai aspektai: Kalbant apie tai, visiškai pašalinus cenzūrą, kyla sudėtingų etinių klausimų. Vienas tiesioginis susirūpinimas yra tai, kaip gali būti naudojamas šis necenzūrinis modelis kontekste, kur cenzūruotos temos yra neteisėtos ar pavojingos. Pavyzdžiui, jei kas nors žemyninėje Kinijoje naudotųsi R1 1776, modelio necenzūruoti atsakymai apie Tiananmenio aikštę ar Taivaną gali sukelti pavojų vartotojui. Taip pat yra platesnis geopolitinis signalas: Amerikos kompanija, keičianti kinų kilmės modelį, kad paneigtų Kinijos cenzūrą, gali būti vertinama kaip drąsi ideologinė pozicija. Pats vardas „1776“ pabrėžia išsivadavimo temą, kuri neliko nepastebėta. Kai kurie kritikai tai tvirtina Galima pakeisti vieną šališkumo rinkinį kitu – Iš esmės abejoja, ar modelis dabar gali atspindėti vakarietišką požiūrį į jautrias vietas. Diskusijos pabrėžia, kad cenzūra ir atvirumas AI yra ne tik techninis klausimas, bet ir politinis bei etinis. Kur mato vienas žmogus būtinas nuosaikumaskitas mato cenzūrair rasti tinkamą pusiausvyrą yra sudėtinga.
Cenzūros pašalinimas iš esmės yra švenčiamas kaip žingsnis link skaidriesnių ir visame pasaulyje naudingų AI modelių, tačiau tai taip pat yra priminimas, kad tai, ką AI AI turėtų Tarkime yra jautrus klausimas be visuotinio susitarimo.
(Šaltinis: pasipiktinimas AI)
Didesnis vaizdas: AI cenzūra ir atvirojo kodo skaidrumas
„Obaility’s R1 1776“ paleidimas atsiranda tuo metu, kai AI bendruomenė susiduria su klausimais apie tai, kaip modeliai turėtų tvarkyti prieštaringai vertinamą turinį. Cenzūra AI modeliuose gali būti iš daugelio vietų. Kinijoje technologijų įmonės privalo kurti griežtus filtrus ir netgi užkoduotus atsakymus į politiškai jautrias temas. „Deepseek R1“ yra puikus to pavyzdys-tai buvo atvirojo kodo modelis, tačiau jis aiškiai parodė Kinijos cenzūros normų įspaudą mokydama ir sureguliuodamas. Priešingai, daugelis vakarietiškų modelių, tokių kaip „Openai“ GPT-4 ar meta lama, nėra linkę į CCP gaires, tačiau jie vis dar turi saikingus sluoksnius (tokius dalykus kaip neapykantos kalba, smurtas ar dezinformacija), kuriuos kai kurie vartotojai vadina „cenzūra“ “. Linija tarp pagrįstas nuosaikumas ir nepageidaujama cenzūra Gali būti neryškus ir dažnai priklauso nuo kultūrinės ar politinės perspektyvos.
Tai, ką pasipiktinimas AI padarė su „Deepseek R1“, kelia mintį, kad atvirojo kodo modelius galima pritaikyti skirtingoms vertės sistemoms ar reguliavimo aplinkai. Teoriškai galima sukurti kelias modelio versijas: vieną, kuri atitinka Kinijos taisykles (skirtas naudoti Kinijoje), o kitą, kuri yra visiškai atvira (skirta naudoti kitur). R1 1776 iš esmės yra pastarasis atvejis – necenzūruota šakutė, skirta pasaulinei auditorijai, kuri teikia pirmenybę nefiltruotiems atsakymams. Tokia šaka yra įmanoma tik todėl, kad „Deepseeek R1“ svoriai buvo atvirai prieinami. Tai pabrėžia atvirojo kodo pranašumą AI: Skaidrumas. Kiekvienas gali paimti modelį ir pataisyti jį, ar pridėti apsaugos priemonių, ar, kaip šiuo atveju, pašalinti nustatytus apribojimus. Atidarykite modelio mokymo duomenų, kodų ar svorių tiekimą taip pat reiškia, kad bendruomenė gali patikrinti, kaip modelis buvo modifikuotas. (Pasiplendimas nevisiškai atskleidė visus duomenų šaltinius, kuriuos jis panaudojo de-cenzoriui, tačiau pats išleisdami patį modelį, jie leido kitiems stebėti jo elgesį ir, jei reikia, net perkrauti.)
Šis įvykis taip pat linkteli į platesnę AI plėtros geopolitinę dinamiką. Mes matome skirtingų AI valdymo modelių dialogo (arba konfrontacijos) formą. Kinijos sukurtas modelis su tam tikra „Fored In WorldViews“ priima JAV įkurta komanda ir pakeista, kad atspindėtų atviresnį informacijos etosą. Tai liudijimas, kaip globalus ir be sienų PG technologija yra tokia: tyrėjai bet kur gali remtis vienas kito darbu, tačiau jie neprivalo perduoti pirminių apribojimų. Laikui bėgant galime pamatyti daugiau to atvejų – kai modeliai yra „išversti“ arba koreguoti tarp skirtingų kultūrinių kontekstų. Tai kelia klausimą, ar AI kada nors gali būti tikrai universali, ar mes galėsime gauti konkrečius regionų versijas, kurios laikysimės vietinėmis noromis. Skaidrumas ir atvirumas suteikia vieną kelią, kaip eiti šiuo keliu: Jei visos pusės gali apžiūrėti modelius, bent jau pokalbis apie šališkumą ir cenzūrą yra atviroje, o ne paslėptos už įmonės ar vyriausybės slaptumo.
Galiausiai pasipiktinimo žingsnis pabrėžia pagrindinį diskusijų apie AI kontrolę punktą: Kas gali nuspręsti, ką AI gali ar negali pasakyti? Vykdydami atvirojo kodo projektus, ši galia tampa decentralizuota. Bendruomenė – arba atskiri kūrėjai – gali nuspręsti įdiegti griežtesnius filtrus arba juos atsipalaiduoti. R1 1776 m. Pasiplendimas nusprendė, kad necenzūruoto modelio nauda nusveria riziką, ir jie turėjo laisvę tą skambutį ir pasidalyti rezultatu viešai. Tai drąsus eksperimentavimo, kuris įgalina atvirą AI plėtrą, pavyzdys.
Source link