Ang mga perpektong pekeng video ay makikilala ng artipisyal na katalinuhan
Ang mga perpektong pekeng video ay makikilala ng artipisyal na katalinuhan

Video: Ang mga perpektong pekeng video ay makikilala ng artipisyal na katalinuhan

Video: Ang mga perpektong pekeng video ay makikilala ng artipisyal na katalinuhan
Video: ЧТО ПРОИЗОШЛО НА ПОКАЗЕ VICTORIA`S SECRET | ДЖИДЖИ ХАДИД, КЕНДАЛЛ ДЖЕННЕР, АДРИАНА ЛИМА - YouTube 2024, Abril
Anonim
Ang premiere ng opera tungkol sa pagkalason ng Litvinenko ay nagsisimula sa England
Ang premiere ng opera tungkol sa pagkalason ng Litvinenko ay nagsisimula sa England

Isang taon na ang nakakalipas, ang Manish Agrawala ni Stanford ay tumulong na bumuo ng teknolohiyang pag-syncing ng labi na pinapayagan ang mga editor ng video na baguhin ang mga salita ng mga nagsasalita na halos hindi makita. Madaling mailalagay ng tool ang mga salitang hindi sinasalita ng isang tao, kahit sa kalagitnaan ng isang pangungusap, o tatanggalin ang mga salitang sinabi niya. Ang lahat ay magmukhang makatotohanang sa mata lamang at kahit sa maraming mga computer system.

Ginawa nitong tool na mas madali upang ayusin ang mga pagkakamali nang hindi muling pagbaril sa buong eksena, at inangkop din ang mga palabas sa TV o pelikula para sa iba't ibang mga madla sa iba't ibang lugar. Ngunit ang teknolohiyang ito ay lumikha din ng nakakagambalang mga bagong pagkakataon para sa mahirap hanapin pekeng mga video, na may malinaw na hangarin na pagbaluktot ng katotohanan. Halimbawa, ang isang kamakailang video ng Republican na gumamit ng isang mas mahigpit na pamamaraan para sa isang pakikipanayam kay Joe Biden.

Ngayong tag-init, ipinakita ni Agrawala at mga kasamahan sa Stanford at UC Berkeley ang isang artipisyal na diskarte na batay sa intelihensiya sa teknolohiyang lip-sync. Ang bagong programa ay tumpak na nakakakita ng higit sa 80 porsyento ng mga peke, na kinikilala ang pinakamaliit na pagkakaiba sa pagitan ng mga tunog ng mga tao at ng hugis ng kanilang mga bibig.

Ngunit si Agrawala, direktor ng Stanford Institute for Media Innovation at propesor ng science sa computer sa Forest Baskett, na kaanib din sa Stanford Institute for Human-Centered Artipisyal na Intelihensiya, nagbabala na walang pangmatagalang solusyon sa teknikal sa malalim na mga pekeng.

Paano gumagana ang pekeng

May mga lehitimong kadahilanan para sa pagmamanipula ng video. Halimbawa, ang sinumang kumukuhanan ng isang kathang-isip na palabas sa TV, pelikula, o komersyal ay maaaring makatipid ng oras at pera sa pamamagitan ng paggamit ng mga digital na tool upang maitama ang mga pagkakamali o ipasadya ang mga script.

Lumilitaw ang problema kapag ang mga tool na ito ay sadyang ginamit upang kumalat maling impormasyon. At marami sa mga diskarte ay hindi nakikita ng average na manonood.

Maraming malalim na pekeng video ang umaasa sa mga pagpapalit ng mukha, na literal na ipinapatigil ang mukha ng isang tao sa video ng ibang tao. Ngunit habang ang mga tool sa pagpapalit ng mukha ay maaaring maging nakakahimok, ang mga ito ay medyo krudo at karaniwang nag-iiwan ng mga digital o visual na artifact na maaaring makita ng isang computer.

Sa kabilang banda, ang mga teknolohiya ng pag-sync ng labi ay hindi gaanong nakikita at samakatuwid ay mas mahirap makita. Ginagawa nila ang isang mas maliit na bahagi ng imahe at pagkatapos ay synthesize ang paggalaw ng labi na tumutugma nang eksakto kung paano talaga gumagalaw ang bibig ng isang tao kung magsalita siya ng ilang mga salita. Ayon kay Agrawal, na binigyan ng sapat na mga sample ng imahe at boses ng isang tao, ang isang pekeng tagagawa ay maaaring gumawa ng isang tao na "sabihin" kahit ano.

Pagtuklas ng pekeng

Nag-aalala tungkol sa hindi etikal na paggamit ng naturang teknolohiya, nagtrabaho si Agrawala kasama si Ohad Freed, isang mag-aaral ng doktor sa Stanford, upang bumuo ng isang tool sa pagtuklas; Hani Farid, propesor sa University of California, Berkeley School of Information; at Shruti Agarwal, isang mag-aaral ng doktor sa Berkeley.

Sa una, ang mga mananaliksik ay nag-eksperimento sa isang pulos manu-manong pamamaraan kung saan pinag-aralan ng mga tagamasid ang video footage. Gumana ito ng maayos, ngunit sa pagsasagawa ito ay masinsin sa paggawa at gumugugol ng oras.

Sinubukan ng mga mananaliksik ang isang artipisyal na neural network na batay sa intelihensiya na magiging mas mabilis upang gawin ang parehong pagsusuri pagkatapos ng pagsasanay sa video kasama ang dating Pangulong Barack Obama. Ang neural network ay nakakita ng higit sa 90 porsyento ng sariling pag-sync ng labi ni Obama, bagaman ang kawastuhan para sa ibang mga nagsasalita ay bumaba sa halos 81 porsyento.

Isang totoong pagsubok ng katotohanan

Sinabi ng mga mananaliksik na ang kanilang diskarte ay bahagi lamang ng laro ng pusa at mouse. Tulad ng pagpapabuti ng malalim na mga diskarte sa pagpapatalsik, mag-iiwan sila ng mas kaunting mga susi.

Sa huli, sabi ni Agrawala, ang totoong problema ay hindi gaanong nakikipaglaban sa malalim na pekeng mga video bilang pakikipaglaban sa disinformation. Sa katunayan, sinabi niya, ang karamihan sa maling impormasyon ay nagmula sa pagbaluktot ng kahulugan ng tunay na sinabi ng mga tao.

"Upang mabawasan ang maling impormasyon, kailangan nating pagbutihin ang literacy ng media at paunlarin ang mga system ng pananagutan," sabi niya. "Maaari itong mangahulugan ng mga batas na nagbabawal sa sadyang paggawa ng maling impormasyon at mga kahihinatnan ng paglabag sa mga ito, pati na rin ang mga mekanismo para matanggal ang nagresultang pinsala."

Inirerekumendang: