OpenAI susține că cel mai recent model AI pe care îl dezvoltă, ce are momentan numele de cod Strawberry, ar fi capabil de „raționament”. Strawberry a fost lansat moment în o1-preview și e testat deja.
OpenAI amenință să interzică accesul utilizatorilor dacă pun această întrebare. Ce nu trebuie să facă pe noul model AI
OpenAI amenință să interzică accesul utilizatorilor la noul model AI dezvoltat de companie, numit pentru moment Strawberry (Căpșună).
Dar se pare că OpenAI, companie ce a pornit ca un ONG cu scopul de a aduce AI etic maselor, nu vrea ca utilizatorii să știe cum ar funcționa acest proces, scrie Futurism.
Creatorul ChatGPT a amenințat chiar utilizatorii care ar folosi acest model AI.
OpenAI amenință să interzică accesul utilizatorilor dacă pun această întrebare
OpenAI ar fi amenințat că interzice accesul utilizatorilor care ar încerca să convingă modelul să dezvăluie modul în care gândește. Acesta e un exemplu clar al faptului că OpenAI a abandonat misiunea originală. Inițial, OpenAI a fost fondat drept un ONG care ar fi adus AI maselor și care ar fi permis accesul publicului la modelele AI. Dar compania a fost acuzată că se axează pe profit, chiar și în detrimentul viitorului societății. Elon Musk a și dat în judecată compania din acest motiv.
Faptul că OpenAI amenință să interzică accesul utilizatorilor a ieșit la iveală pe rețelele de socializare. Unii utilizatori au primit email-uri de la companie. Prin acestea, erau informați că cerințele lor către ChatGPT au fost scoase în evidență pentru că „ar fi încercat să treacă dincolo de nivelul de protecție”.
„Alte încălcări ale acestei reguli ar putea duce la pierderea accesului la GPT-4o cu Reasoning,” scrie în email.
Situația e cu atât mai surprinzătoare când aflăm că Strawberry a fost prezentat drept un model AI care are un raționament ce ar permite inteligenței artificiale să descrie cum a ajuns la un anumit răspuns, pas cu pas.
Mira Murati, CTO-ul OpenAI, a numit această direcție „o nouă paradigmă” pentru tehnologie. Dar de la declarațiile directorilor la modul în care aplică OpenAI această prezentare se pare că e cale lungă. Mai ales dacă OpenAI amenință acum să interzică accesul utilizatorilor dacă vor să afle cum funcționează raționamentul tehnologiei.
Există mai multe mesaje publicate pe acest subiect pe rețelele de socializare. Unii dintre utilizatori susțin că folosirea termenului „reasoning trance” e ceea ce a cauzat probleme. Alții susțin că folosirea cuvântului „raționament” a atras atenția sistemelor OpenAI.
OpenAI susține că trebuie să ascundă raționamentul Strawberry
Utilizatorii pot vedea, teoretic, care e procesul logic al Strawberry. Dar acest răspuns e dat de un alt model AI și e foarte vag.
Într-un mesaj publicat pe blog-ul oficial, OpenAI susține că trebuie să ascundă raționamentul, pentru a nu introduce un filtru despre cum gândește inteligența artificială dezvoltată de companie. Acest filtru ar fi necesar în cazul în care modelul ar spune lucruri care nu sunt conforme cu politice de siguranță.
În acest mod, dezvoltatorii ar putea vedea în siguranță procesul „brut”. Dar compania a dezvăluit și că măsura o ajută să își mențină „avantajul competitiv”. Adică nu ar permite competitorilor să adopte un proces similar.
Recent, un cercetător OpenAI și-a dat demisia din companie, pe care a numit-o „Titanicul AI”, din cauza acestei direcții axate pe profit.
Dar faptul că OpenAI amenință să interzică accesul utilizatorilor ridică mai multe semne de întrebare. Respectiv faptul că măsură merge împotriva misiunii de democratizare a AI. Ceea ce reprezintă un obstacol nu doar pentru dezvoltarea în siguranță a tehnologiei.
Dar împiedică șii programatorii să investigheze modelele, pentru a le face mai sigure.
„Nu sunt deloc mulțumit de această decizie,” a declarat Simon Willison, cercetător AI. „Drept cineva care dezvoltă împotriva LLM-urile (modele mari de limbaj), interpretabilitatea și transparența sunt extrem de importante.”