Itt jön Cseti húga, aki bármilyen videót csettintésre legyárt

Sora

Cseti húga, Sora bármilyen videót csettintésre legyárt


A Cseti, vagyis a ChatGPT mögött álló OpenAI ismét nagyot fejlesztett a mesterséges intelligencia terén. Új modellje, a Sora egyperces videókat generál, méghozza akár egyetlen mondat alapján. A képkockák ráadásul annyira valósághűek, hogy sok esetben nem tudnánk megmondani, hogy nem igaziak, ha nem ismerjük a kontextust.

A Twitteren a Sorára érkező reakciókat két csoportra lehet osztani: az egyik tábort az foglalkoztatja, a Sora elavulttá teszi-e a videógyártást, míg a másikat az, hogy hogyan tudná kipróbálni.

Az első kérdésre egyelőre nehéz lenne választ adni, a második kérdésre viszont tudjuk a megfejtést: a Sorát egyelőre közönséges halandók még nem próbálhatják ki, mert a rendszert jelenleg is tesztelik, hogy megbizonyosodjanak arról, nem generál káros vagy nem megfelelő tartalmakat.

Az első körben vizuális művészek, tervezők és filmesek egy kiválasztott csoportja tesztelheti, hogy visszajelzést adjon arról, hogyan lehet továbbfejleszteni a modellt. Addig is az OpenAi az oldalán, a Twitteren itt és itt, és a Youtube-on is közzétett néhány videót, amit utasítások segítségével generáltak.


Az utasítások között ilyesmiket találunk:

  • Egy rajzolt kenguru diszkótáncol
  • Golden retriever kölykök játszanak a hóban, a fejük kibukkan a hóból
  • A borneói vadon a Kinabatangan folyónál
  • Bambuszerdő nő egy petricsészében, apró vörös macskamedvék ugrálnak benne
  • Drónfelvétel a sziklának ütköző hullámokról a kaliforniai Big Surban
  • Filmtrailer egy 30 éves űrhajós férfi kalandjairól
  • Két kalózhajó harcol egy kávéscsészében
  • A havas Tokió cseresznyevirágzással
  • Egy robot élete

Forrás: Mashable, kép: OpenAi

Hozzászólásokhoz gördülj a kapcsolódók alá!


Kedves olvasó,

ha nem vagy még támogató, lépj be a Klubba ITT. Csupán havi két kiló kenyér áráért, 2200 forint támogatásért elérsz minden támogatói tartalmat, a heti videókat és írásokat is. Alkalmi támogatásra Paypalon keresztül van lehetőség (kattints a kis gombra!).

Ha egyik mód sem megfelelő, de szeretnéd támogatni a Cenwebet és a rezervátumot, akkor keress minket mailben a hello@centauriweb.hu vagy a centauri16@gmail.com címen. Segítségedet előre is megköszönve, és remélve, hogy szövetségesek leszünk.   

még több M.I.

Visual Portfolio, Posts & Image Gallery for WordPress

Kifogy az adatokból a generatív MI

A Deloitte nevű könyvvizsgáló és tanácsadó cég TMT Predictions 2024 címmel készített felmérést a technológiák, a média és telekommunikációs eszközök alkalmazásának témakörében…Tovább

még több Cseti

Visual Portfolio, Posts & Image Gallery for WordPress

6 hozzászólás

  1. Én még tovább gondolkodtam, mert ha ilyen tempójú a fejlődés, akkor hamar elérkezünk a hosszabb videókhoz, kisfilmekhez, esetleg netán az egész estés filmekhez. Eljön az idő, amikor nem kellenek színészek, sminkesek, stb., mert a rendező egyenesen az MI-nek ad majd utasításokat?

    Kíváncsi lennék, vajon hogyan védik ki, hogy ne generáljon káros vagy nem megfelelő tartalmakat. Hogyan mondják meg neki, hogy mi számít ilyen tartalomnak? (Valószínűleg lesznek tiltólistán lévő szavak. Ha ilyet tartalmaz az utasítás, akkor a Sora nem engedelmeskedik. 🤔)

  2. Author

    Hát, igen, ezek jó kérdések. 🙂
    Új szakmákra lesz szükség, akik megoldják ezeket a problémákat.
    Logikus, amit mondasz, én is azt gondolnám, hogy vannak tiltott szavak.
    Azt írja az OpenAI a Twitteren, hogy most különböző területek szakértői tesztelik a szoftvert, az álhírek terén, a gyűlöletkeltő és előítéletes tartalmakban jártas szakemberek.

    1. Ilyen fajta újdonságokról olvasva bennem mindig megszólal egy apró vészcsengő: hova vezethet ez?
      Tökéletes tesztelés nincs – ahogyan hibátlan szoftver sem létezik, legfeljebb olyan, amiről még nem derült ki, hogy mi a hibája.
      Hogyan tudják kiszűrni pl. a nem megfelelő tartalmakat? Egyáltalán: mit jelent az, hogy nem megfelelő tartalom?

      Mondok egy példát.
      Csetivel készíttetek egy olyan videót, amelyben egy pár meghitten andalog egy folyóparton. A pár egyik tagját úgy alakíttatom ki – olyan utasításokat adok -, hogy nagyon hasonlítson az egyik haragosomra. Aztán ezt a videót megosztom, ahol csak lehet, hogy nagy valószínűséggel a haragosom férje/felesége is lássa.

      Ez a videó nem gyűlöletkeltő. Azt sem lehet rá mondani, hogy nem megfelelő tartalom, viszont okozhat kárt. Nos, az ilyet képtelenség kiszűrni.

      S a deepfake videókat most nem is említettük…

      1. Author

        Na, igen. Már most sem lehet mit kezdeni a deepfake-kel, gyanítom, ez csak hatványozódni fog.
        Én azon gondolkodtam el, hogy milyen lesz ebben szocializálódni, ebbe belenőni, hogy minden egyes információról, amivel találkozik az ember online, el kell döntenie, hogy valóságot takar vagy nem. Nem fogja tudni és akarni mindig eldönteni, hogy mi igaz és mi nem, mi valóság, mi nem az. Elég nagy káosz lehet ebből. Ilyen problémák korábban is voltak, hogy gyerekek állítólag azt hitték, lilák a tehenek.

        1. A Milka tehén miatt? 🙂 (Állítólag egy 56-os magyar találta ki a lila tehenet.)
          Tényleg nagyon érdekes kérdés, hogy mennyire fognak kételkedni azok, akik ebben nőnek fel, vagy fenntartások nélkül elhisznek mindent. Mennyire lesz fontos számukra, hogy amit látnak, az valódi-e vagy manipulált.

          Ami még aggasztó, hogy a törvényi szabályozás valószínűleg megint jócskán le lesz maradva. 🙁

          1. Author

            Aha, a Milka miatt. 🙂
            Érdekes időket élünk, az biztos.

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük