OpenAI a dezvăluit în sfârșit Sora 2, cea mai nouă variantă a modelului AI care poate transforma text în video-uri. Modelul a fost lansat alături de o aplicație specială, dedicată video-urilor create cu AI.
OpenAI lansează Sora 2 alături de o aplicație specială. Ce probleme a creat deja modelul AI
OpenAI lansează Sora 2, alături de o aplicație specială dedicată video-urilor create cu noul model AI.

Deși lansarea a avut loc în urmă cu doar câteva zile, aplicația deja întâmpină probleme, scrie The Guardian.
Experții în informații false susțin că deja circulă video-uri false AI, în ciuda promisiunilor OpenAI că acest conținut va fi interzis.
OpenAI lansează Sora 2 alături de o aplicație specială
OpenAI lansează Sora 2, cea mai nouă versiune a generatorului său de video-uri bazat pe AI. Alături de model, compania a lansat și o platformă socială care le permite utilizatorilor să își distribuie video-urile AI.
La doar câteva ore după lansarea Sora 2, multe dintre videoclipurile apărute pe platformă includeau personaje protejate prin drepturi de autor în situații compromițătoare, precum și scene grafice de violență și rasism. Termenii și condițiile OpenAI pentru Sora, dar și pentru ChatGPT, interzic clar generarea de conținut care „promovează violența”. Sau, mai general, care „provoacă daune”.
Sora a generat mai multe video-uri care simulau alerte de bombe sau atacuri armate, cu oameni panicați care țipau și fugeau prin campusuri universitare sau locuri aglomerate precum Grand Central Station din New York.
Alte comenzi au produs scene din zone de război din Gaza și Myanmar, unde copii generați de AI vorbeau despre cum le-au fost incendiate casele. Un alt videoclip arăta un reporter cu vestă antiglonț, care relata că forțele guvernamentale și rebelii din Etiopia trăgeau unii în alții în cartiere rezidențiale.
Un video generat doar cu textul „Charlottesville rally” prezenta un protestatar de culoare purtând mască de gaz, cască și ochelari, care striga: „You will not replace us” (Nu ne veți înlocui), un slogan folosit de grupuri rasiste. Chiar dacă OpenAI lansează Sora 2 cu mai multe reguli, se pare că mulți utilizatori nu țin cont de ele.
Generatorul video e disponibil doar pe bază de invitație momentan, așa încă accesibil publicului larg. Totuși, în cele 3 zile de la lansarea limitată, aplicația a ajuns pe locul 1 în App Store, depășind chiar și ChatGPT.
Aplicația Sora deja întâmpină probleme
„A fost epic să vedem de ce este capabilă creativitatea colectivă a umanității,” a scris Bill Peebles, directorul Sora, pe X (Twitter). „Trimitem în curând mai multe coduri de invitație, promit!”
Cercetătorii care studiază dezinformarea avertizează că asemenea scene realiste pot estompa granița dintre realitate și fals. Ceea ce deschide calea pentru fraude, hărțuire sau intimidare online.
„Nu are nicio fidelitate față de istorie, nicio legătură cu adevărul,” a declarat Joan Donovan, profesor la Universitatea Boston. „Când oameni răi pun mâna pe instrumente ca acesta, le vor folosi pentru ură, hărțuire și incitare.”
Sam Altman, directorul executiv al OpenAI, a descris lansarea Sora 2 drept „cu adevărat extraordinară”.
„Pentru mulți dintre noi, acest moment pare a fi echivalentul ChatGPT pentru creativitate. Distractiv și complet nou,” a scris Altman pe blog.
Totuși, Altman a recunoscut că are „anumite rețineri”. CEO-ul a recunoscut că rețelele sociale pot deveni toxice și pot da dependență. Și că generarea video cu AI poate crea ceea ce se numește „slop”. Adică un flux de video-uri repetitive, de calitate slabă, care pot sufoca o platformă.
La doar câteva zile după lansare, multe dintre aceste video-uri au început deja să circule pe internet. Drew Harwell, reporter la Washington Post, a creat un clip cu Altman însuși în rolul unui lider militar din Al Doilea Război Mondial și a spus că a putut genera videoclipuri cu violență, crime false și femei stropite cu lichide albe.



























