რა არის Deepfake - დეზინფორმაციის ახალი ფორმა
12.02.2019

უკვე დიდი ხანია ვიცით, რომ ყოველთვის არ უნდა ვენდოთ იმას, რასაც ვკითხულობთ ან ვისმენთ, თუმცა თანამედროვე ტექნოლოგიების ერაში არც ნანახის უნდა გვჯეროდეს. ე.წ Deepfake ვიდეოები ბოლო პერიოდში არამარტო ინტერნეტის მომხმარებლების, არამედ მთავრობებისა და მედიის ყურადღებასაც იქცევს.

Deepfake ხელოვნურ ინტელექტზე დაფუძნებული ჰიპერრეალისტური ვიდეო ან აუდიო ჩანაწერია, რომელშიც ჩანს, რომ კონკრეტული ადამიანი ამბობს ან აკეთებს იმას, რაც სინამდვილეში არასდროს გაუკეთებია. ტერმინი ორ სიტყვას აერთიანებს - deep learning (სიღრმისეული შესწავლა) - რაც ხელოვნური ინტელექტის ერთერთ ალგორითმს წარმოადგენს და Fake - ყალბს.

მატივად, რომ ავხსნთ, ჩვეულებრივი ვიდეო მანიპულაციისგან განსხვავებით, უკვე არსებულ ალგორითმს ერთი ადამიანის მოძრაობა და სიტყვები გადააქვს მეორე ადამიანზე. წარმოიდგინეთ, რომ არსებობს ორი ვიდეო - ერთი მსახიობის ან კონკრეტული ადამიანის პაროდისტის და მეორე სამიზნე ადამიანის. ალგორითმი ქმნის ახალ სინთეზურ ვიდეოს, რომელშიც ნაჩვენებია, რომ სამიზნე ადამიანი ზუსტად ისე საუბრობს და მოძრაობს, როგორც მისი პაროდისტი. რაც უფრო მეტი ვიდეო და აუდიო მასალა არსებობს, რომელშიც სამიზნე პირია ასახული, მით უფრო მეტს შეისწავლის ხელოვნური ინტელექტი და შესაბამისად, deepfake-იც ვიზუალურად ბევრად რეალისტურია.

 

via GIPHY

ტერმინი თავდაპირველად 2017 წელს გაჩნდა, როდესაც Reddit-ის მომხმარებლმა სახელით Deepfake, ხელოვნური ინტელექტის deep learning ალგორითმით ცნობილი ადამიანების სახეები პორნოგრაფიულ ვიდეოებში დაამუშავა.

თუმცა, Deepfake ვიდეოები განსაკუთრებით აქტუალური მას შემდეგ გახდა, რაც გასული წლის აპრილში კომპანია Buzzfeed-მა გამოაქვეყნა ვიდეო, რომელშიც ბარაკ ობამა დონალდ ტრამპს დასცინის და შეურაცხყოფას აყენებს. რეალურად ობამას სახე deepfake ტექნოლოგიის გამოყენებით ჰოლივუდის მსახიობის, ჯიორდან პილის, ხმასა და სახის მოძრაობაზე იყო აგებული. ვიდეოს შექმნის მიზანს იმ საფრთხეების ჩვენება წარმოადგენდა, რაც შესაძლოა ამ ტიპის ვიდეოებს ახლდეს თან. Buzzfeed-ის ვიდეო მალევე გავირუსდა და Deepfake ტექნოლოგიაზე გაშუქება საერთაშორისო პრესამ, მათ შორის, Wall street Journal-მა, CNN-მა და BBC-იმ დაიწყეს.

via GIPHY

დღესდღეობით Deepfake შესაძლოა დეზინფორმაციის მძლავრ იარაღად იქცეს. თუ აქამდე მხოლოდ სპეცეფექტების ექსპერტებს შეეძლოთ ყალბი, მაგრამ რეალისტური ვიზუალური და აუდიო მასალის დამზადება, ახლა ხელოვნური ინტელექტი საშუალებას იძლევა ნებისმიერმა ადამიანმა შექმნას ასეთი კონტენტი. ამისთვის კი მხოლოდ ინტერნეტი, სამიზნე პირის ფოტო ან ვიდეო მასალაა სააჭირო. აშშ-ში ბერკლის უნივერსიტეტის კომპიუტერული მეცნიერებების პროფესორი ჰენი ფარიდი Wall street Journal-თან ინტერვიუში აცხადებს, რომ ვიზუალური გამოსახულებების შეცვლით შესაძლებელია ისტორიის შეცვლაც, ხელოვნური ინტელექტის ამგვარად გამოყენება კი ციფრულ სივრცეში ყველაფერს ცვლის.

⇒ ასეთი ვიდეოს დამზადების სქემა 

 

via GIPHY

აღსანიშნავია, რომ ისტორიის შეცვლა ვიზუალური მანიპულაციებით წლების წინაც ხდებოდა, მაგალითად, როდესაც სტალინი მისთვის არასასურველ ადამიანებს ფოტოებიდან აქრობდა. მოგვიანებით, ისტორიული მომენტების „გაყალბება“ კინოინდუსტრიაში ერთერთ პოპულარულ ტექნიკად იქცა. მაგალითად, სწორედ სპეც.ფექტებითაა დამუშავებული ფილმ „ფორესტ გამპში“ ტომ ჰენკსის შეხვედრა პრეზიდენტ ჯონ კენედისთან.

via GIPHY

2015 წელს გამოსულ „ფორსაჟ 7“-ის ბოლო სცენაში კი იმ დროისთვის უკვე დაღუპული მსახიობი პოლ უოლკერი ჩანს, რეალურად რეჟისორმა სცენაში უოლკერის ძმა ათამაშა და სახე ციფრული ტექნოლოგიის დახმარებით შეცვალა.

via GIPHY

დღეს კი ზუსტად ამავე ეფექტის მიღწევა შესაბამისი აპლიკაციის საშუალებით რამდენიმე წუთში შეიძლება. კარგად დამუშავებული Deepfake-ის ამოცნობას კი შესაძლოა რამდენიმე დღეც დასჭირდეს.


•     Deepfake-ის უარყოფითი მხარეები

ამჟამად ასეთი ვიდეოები ძირითადად ინტერნეტის ე.წ ბნელ ქსელში იძებნება. კერძოდ, ცნობილი ადამიანების: ემა უოტსონის, გალ გადოტის, ანჯელინა ჯოლის და სხვების სახეები ქალი პორნომსახიობების ვიდეოებშია გამოყენებული, რაც იძლევა იმის ილუზიას, რომ პორნოგრაფიულ ვიდეოში უშუალოდ ეს ადამიანები მონაწილეობენ. თუმცა, Deepfake პორნოგრაფიული ვიდეოების მსხვერპლი ნებისმიერი ადამიანი შეიძლება გახდეს. მათ შორისაა, 18 წლის ავსტრალიელი მოსწავლე ნოელ მარტინი, რომელმაც ინტერნეტში ორალური სექსის ამსახველი ვიდეო მისივე მონაწილეობით ნახა. მარტინმა პოლიციას მიმართა, თუმცა უშედეგოდ, რადგან არც ავსტრალიაში და არც სხვა ქვეყნებში არ არსებობს კანონი, რომელიც Deepfake-ის კრიმინალიზებას ახდენს.

საერთაშორისო ანალიტიკური ცენტრის Carnegie Endowment for International Peace-ის სილიკონ ველის ოფისის დირექტორი შარლოტ სტენტონი წერს, რომ Deepfake-ს შეუძლია უხეშად ჩაერიოს პოლიტიკაში, მოახდინოს არჩევნების საბოტაჟი და გააჭინაუროს დიპლომატიური ურთიერთობები.

მაგალითად, გასულ წელს ბელგიის ერთერთმა პოლიტიკურმა პარტიამ თვითერზე გამოაქვეყნა Deepfake ვიდეო, რომელშიც ტრამპი აკრიტიკებს ბელგიის პოზიციას კლიმატის ცვლილების შესახებ. ვიდეო ვიზუალურად არც ისე რეალისტურია და შესაბამისად მარტივად შესამჩნევი იყო მისი სიყალბეც, მიუხედავად ამისა მან ონლაინ პლატფორმაზე მაინც მოახერხა ასობით კომენტარის პროვოცირება, რომელებშიც აუდიტორია აღშფოთებას გამოხატავდა ტრამპის მიერ ბელგიის შიდა საქმეებში ჩარევაზე.

პროფესორი ფარიდი კი Deepfake-ის შესაძლო საფრთხეს ასე ხსნის: "წარმოიდგინეთ შემდეგი სცენარი: გამოქვეყნდა ტრამპის ხელოვნური ინტელექტით დამუშავებული ვიდეო, სადაც ის ამბობს, რომ "მე ახლახანს გავუშვი ატომური ბომბი ჩრდილოეთ კორეის წინააღმდეგ“. ეს ვიდეო მოხვდება თვითერზე და გავირუსდება 30-60 წამში. ჩრდილოეთ კორეა უპასუხებს მომდევნო 60 წამში, სანამ ვინმე გაარკვევს, რომ ვიდეო ყალბია. ამის შემდეგ როგორ უნდა დავიჯეროთ ყველაფერი, რასაც ვნახულობთ? ამიტომ Deepfake რეალური საფრთხეს უქმნის ჩვენს დემოკრატიას."

თუმცა, მეორე მხრივ Deepfake-ების რიცხვის მატებამ შესაძლოა აუდიტორიას ავთენტური ვიდეოების მიმართ სიყალბის ეჭვი გაუჩინოს. ამერიკელი პროფესორები რობერტ ჩესნი და დენიელ სიტრონი ამ ეფექტს "მატყუარას დივიდენდს" (liar’s dividend) უწოდებენ: რაც უფრო მეტ ინფორმაციას იღებს საზოგადოება deepfake-ების შესახებ, მით უფრო სკეპტიკურად უყურებს ვიდეოებს და მისთვის ბევრად ბუნებრივი ხდება ავთენტური ვიდეოს ყალბად აღქმა.

კიდევ ერთ საფრთხეს წარმოადგენს ისიც, რომ მომავალში პოლიტიკოსებს მარტივად შეეძლებათ თავი იმართლონ იმით, რომ მათზე გავრცელებული ჩანაწერები კომპიუტერულადაა დამუშავებული.


•     როგორ უნდა ამოვიცნოთ Deepfake?

კარგად დამუშავებული Deepfake-ის ამოცნობა რთულია, რადგან მას არ გააჩნია აშკარა ნიშანი, რითაც მის სიყალბეში დავრწმუნდებით. თუმცა, ასეთი ვიდეოების უმრავლესობას ზოგადად ახასიათებს რამდენიმე ფაქტორი: ადამიანის არაბუნებრივი სუნთქვა, პულსი ან თვალების დახამხამება. თუ ვიდეო 30 წამიანია და მასში ნაჩვენები ადამიანი თვალს არ ახამხამებს, მაშინ ეს ვიდეო შესაძლოა ყალბი იყოს. 

via GIPHY

აღსანიშნავია, რომ Deepfake-ებთან საბრძოლველად ევროკავშირმა ნაბიჯები უკვე გადადგა. ბრიუსელის ოფისმა გასულ წელს გამოაქვეყნა ყველა ფორმის დეზინფორმაციასთან ბრძოლის სტრატეგია, რომელიც Deepfake-ებსაც მოიცავს. აშშ-ის კი კონგრესმენებმა ადამ შიფმა და სტეფანი მერფიმ ეროვნული დაზვერვის დირექტორს მისწერეს წერილი, რომელშიც მოითხოვეს რომ გაირკვეს როგორ შეიძლება სხვა ქვეყნების ხელისუფლებებმა, სადაზვერვო სამსახურებმა და კერძო პირებმა Deepfake-ების საშუალებით აშშ-ის ინტერესებს ავნონ და რა ფორმით შეიძლება მათი შეჩერება. ამ თემას ცალკე მოხსენება დაუთმო სენატორმა მარკო რუბიომაც. გარდა ამისა, პენტაგონმა უკვე დააფინანსა საკვლევი პროექტი იმისთვის, რათა ახალი მეთოდები გამოიძებნოს deepfake-ების გამოსავლენად.

ფაქტია, ტექნოლოგიები მუდმივ პროგრესს განიცდის, რაც კიდევ უფრო მარტივს ხდის ყალბი, მაგრამ მაქსიმალურად რეალისტური კონტენტის შექმნას, რომელიც მედიაში შესაძლოა დეზინფორმაციისა და პროპაგანდის ნაწილად  იქცეს. 


თეგები : ყალბი ინფორმაცია; მანიპულაცია;
ავტორი : ირმა კურტანიძე;
კომენტარი, რომელიც შეიცავს უხამსობას, დისკრედიტაციას, შეურაცხყოფას, ძალადობისკენ მოწოდებას, სიძულვილის ენას, კომერციული ხასიათის რეკლამას, წაიშლება საიტის ადმინისტრაციის მიერ

მსგავსი სტატიები

ასევე იხილეთ