EMO Project: generering av videoer fra en persons bilde

emo

Vi begynner med forbauselse å se noen av tingene som kunstig intelligens er i stand til å gjøre brukt på våre daglige enheter. Resultatene er virkelig overraskende, og det er bare toppen av isfjellet. Et godt eksempel er EMO-prosjekt, som består av å generere uttrykksfulle videoer fra bilder og portretter.

Med andre ord: det er en teknologi som gir liv til statiske bilder, og gir dem lyd og bevegelse. I dette innlegget skal vi forklare hva denne ideen består av med noen interessante eksempler.

Hva er EMO-prosjektet?

EMO er forkortelsen for Portrett Alive Emote, et prosjekt utviklet av Linrui Tian, ​​Qi Wang, Bang Zhang og Liefeng Bo, tre ingeniører fra Institutt for intelligent databehandling, som er en del av det kinesiske teknologi- og forretningskonglomeratet Alibaba.

Med skapernes ord er det et uttrykksfullt generasjonssystem for lyddrevne videoportretter. Det er en ganske grov definisjon av hva Project EMO er i stand til: ta bildet av en person og gi det uttrykk, stemme og bevegelse. Det virker som magi.

Dette er ikke enkle animasjonstriks som enhver app kan gjøre, men snarere omhyggelig og høy presisjonsarbeid noe som gjenspeiles i et bredt spekter av ansiktsuttrykk, samt hode- og leppebevegelser. I tillegg kommer lyden, som også bestemmer formen disse bevegelsene har.

På den annen side kan videoene som genereres ha ubegrenset varighet. De avhenger faktisk av lengden på videoen de er basert på.

Hvordan virker det?

Virkemåten til dette utrolige verktøyet er forklart i detalj på selve siden. prosjektnettsted. Metoden er bygget opp i to ulike faser:

    1. Innledende kodefase der alle aspekter ved startbildet (eller referansebildet) studeres, for bedre å forstå hvilken bevegelse og animasjon som kan brukes på det.
    2. Behandlingsfase. I den behandler en forhåndstrent lydkoder lydinnbyggingen, mens ansiktsbildegenereringslaget eller masken påføres.

Noen detaljer om denne prosessen bør fremheves, fokusert på å eliminere støy og bevare karakterens identitet. På den annen side brukes andre tidsmoduler for å justere varigheten av videoen og bevegelseshastigheten.

Resultatene som vi skal presentere nedenfor (om vi skal få hvert portrett til å snakke eller til og med synge) kan bare defineres som spektakulære. AI-intervensjon tjener til å oppnå høye nivåer av realisme som er i stand til å lure oss fullstendig. Noe som fortsatt er urovekkende, egentlig.

EMO-prosjekt. Noen eksempler:

La oss vise noen eksempler på hva denne teknologien kan oppnå. Som du vil se, kan vi bruke bildet av en ekte karakter eller en generert av AI. Vi kan få den til å bevege seg og gestikulere, til å snakke på det språket vi vil (si hva vi vil at den skal si) og til og med få den til å synge. Ekte vidunderbarn.

Dette er noen videoer av bilder som EMO-prosjektet snakker. Skuespillerinnen Audrey Hepburn kommer til live for å fortelle oss om menneskers rett til å gråte og uttrykke sine følelser:

Du kan også få karakterer som ikke er laget av kjøtt og blod til å snakke. Her har vi Mona Lisa, av Leonardo da Vinci, som EMO Project har blåst liv i for å resitere Rosalindas monolog i stykket "Som du liker" av William Shakespeare:

Merkelig nok kan vi også ta bilder av ekte skuespillere og få dem til å si hva som helst. I dette tilfellet ser vi Rafael Phoenix i sin berømte rolle som The Joker, men uttale en tekst som tilsvarer en annen film, Den mørke ridderen.

La oss nå gå videre til musikkens verden. I det følgende eksemplet er en AI-generert karakter kalt SORA fremføre sangen «Ikke start nå» de Dua Lipa. Resultatet er forbløffende menneskelig:

Til slutt presenterer vi en veldig ung Leonardo DiCaprio synger filmtemaet Godzilla komponert av rapperen Eminem:

Etiske og juridiske hensyn

Bruken (eller rettere sagt misbruken) av kunstig intelligens står for tiden i sentrum av debatten. en disruptiv teknologi hvis grenser og muligheter vi ennå ikke er i stand til å skimte og som, misbrukt, kan ha negative konsekvenser i mange forskjellige aspekter.

For å dekke ryggen, gjør de det på EMO Project-siden veldig tydelig at alle deres tester og kreasjoner er ment utelukkende for akademisk forskning og demonstrasjon av effekter. Det er ikke nødvendig å lete etter baktanker. En teknologi som kan oppnå en slik grad av presisjon og realisme, utgjør imidlertid en reell fare for alle som ønsker å bruke den til å begå svindel, identitetstyveri og andre forbrytelser.


Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.