უკვე დიდი ხანია ვიცით, რომ ყოველთვის არ უნდა ვენდოთ იმას, რასაც
ვკითხულობთ ან ვისმენთ, თუმცა თანამედროვე ტექნოლოგიების ერაში არც
ნანახის უნდა გვჯეროდეს. ე.წ Deepfake ვიდეოები ბოლო პერიოდში
არამარტო ინტერნეტის მომხმარებლების, არამედ მთავრობებისა და მედიის
ყურადღებასაც იქცევს.
Deepfake ხელოვნურ ინტელექტზე დაფუძნებული ჰიპერრეალისტური ვიდეო ან
აუდიო ჩანაწერია, რომელშიც ჩანს, რომ კონკრეტული ადამიანი ამბობს ან
აკეთებს იმას, რაც სინამდვილეში არასდროს გაუკეთებია. ტერმინი ორ
სიტყვას აერთიანებს - deep learning (სიღრმისეული შესწავლა) - რაც
ხელოვნური ინტელექტის ერთერთ ალგორითმს წარმოადგენს და Fake -
ყალბს.
მატივად, რომ ავხსნთ, ჩვეულებრივი ვიდეო მანიპულაციისგან
განსხვავებით, უკვე არსებულ ალგორითმს ერთი ადამიანის მოძრაობა და
სიტყვები გადააქვს მეორე ადამიანზე. წარმოიდგინეთ, რომ არსებობს ორი
ვიდეო - ერთი მსახიობის ან კონკრეტული ადამიანის პაროდისტის და მეორე
სამიზნე ადამიანის. ალგორითმი ქმნის ახალ სინთეზურ ვიდეოს, რომელშიც
ნაჩვენებია, რომ სამიზნე ადამიანი ზუსტად ისე საუბრობს და მოძრაობს,
როგორც მისი პაროდისტი. რაც უფრო მეტი ვიდეო და აუდიო მასალა
არსებობს, რომელშიც სამიზნე პირია ასახული, მით უფრო მეტს შეისწავლის
ხელოვნური ინტელექტი და შესაბამისად, deepfake-იც ვიზუალურად ბევრად
რეალისტურია.
ტერმინი თავდაპირველად 2017 წელს გაჩნდა, როდესაც Reddit-ის
მომხმარებლმა სახელით Deepfake, ხელოვნური ინტელექტის deep learning
ალგორითმით ცნობილი ადამიანების სახეები პორნოგრაფიულ ვიდეოებში
დაამუშავა.
თუმცა, Deepfake ვიდეოები განსაკუთრებით აქტუალური მას შემდეგ გახდა,
რაც გასული წლის აპრილში კომპანია Buzzfeed-მა გამოაქვეყნა ვიდეო, რომელშიც ბარაკ ობამა დონალდ ტრამპს დასცინის
და შეურაცხყოფას აყენებს. რეალურად ობამას სახე deepfake ტექნოლოგიის
გამოყენებით ჰოლივუდის მსახიობის, ჯიორდან პილის, ხმასა და სახის
მოძრაობაზე იყო აგებული. ვიდეოს შექმნის მიზანს იმ საფრთხეების
ჩვენება წარმოადგენდა, რაც შესაძლოა ამ ტიპის ვიდეოებს ახლდეს თან.
Buzzfeed-ის ვიდეო მალევე გავირუსდა და Deepfake ტექნოლოგიაზე
გაშუქება საერთაშორისო პრესამ, მათ შორის, Wall street Journal-მა, CNN-მა და BBC-იმ დაიწყეს.
დღესდღეობით Deepfake შესაძლოა დეზინფორმაციის მძლავრ იარაღად
იქცეს. თუ აქამდე მხოლოდ სპეცეფექტების ექსპერტებს შეეძლოთ ყალბი,
მაგრამ რეალისტური ვიზუალური და აუდიო მასალის დამზადება, ახლა
ხელოვნური ინტელექტი საშუალებას იძლევა ნებისმიერმა ადამიანმა შექმნას
ასეთი კონტენტი. ამისთვის კი მხოლოდ ინტერნეტი, სამიზნე პირის ფოტო ან
ვიდეო მასალაა სააჭირო. აშშ-ში ბერკლის უნივერსიტეტის კომპიუტერული
მეცნიერებების პროფესორი ჰენი ფარიდი Wall street Journal-თან
ინტერვიუში აცხადებს, რომ
ვიზუალური გამოსახულებების შეცვლით შესაძლებელია ისტორიის შეცვლაც,
ხელოვნური ინტელექტის ამგვარად გამოყენება კი ციფრულ სივრცეში
ყველაფერს ცვლის.
⇒ ასეთი ვიდეოს დამზადების სქემა
აღსანიშნავია, რომ ისტორიის შეცვლა ვიზუალური მანიპულაციებით
წლების წინაც ხდებოდა, მაგალითად, როდესაც სტალინი მისთვის
არასასურველ ადამიანებს ფოტოებიდან აქრობდა. მოგვიანებით, ისტორიული
მომენტების „გაყალბება“ კინოინდუსტრიაში ერთერთ პოპულარულ ტექნიკად
იქცა. მაგალითად, სწორედ სპეც.ფექტებითაა დამუშავებული ფილმ „ფორესტ
გამპში“ ტომ ჰენკსის შეხვედრა პრეზიდენტ ჯონ კენედისთან.
2015 წელს გამოსულ „ფორსაჟ 7“-ის ბოლო სცენაში კი იმ დროისთვის
უკვე დაღუპული მსახიობი პოლ უოლკერი ჩანს, რეალურად რეჟისორმა სცენაში
უოლკერის ძმა ათამაშა და სახე ციფრული ტექნოლოგიის დახმარებით
შეცვალა.
დღეს კი ზუსტად ამავე ეფექტის მიღწევა
შესაბამისი აპლიკაციის საშუალებით რამდენიმე წუთში შეიძლება. კარგად
დამუშავებული Deepfake-ის ამოცნობას კი შესაძლოა რამდენიმე დღეც
დასჭირდეს.
•
Deepfake-ის უარყოფითი მხარეები
ამჟამად ასეთი ვიდეოები ძირითადად ინტერნეტის ე.წ ბნელ ქსელში
იძებნება. კერძოდ, ცნობილი ადამიანების: ემა უოტსონის, გალ გადოტის,
ანჯელინა ჯოლის და სხვების სახეები ქალი პორნომსახიობების ვიდეოებშია
გამოყენებული, რაც იძლევა იმის ილუზიას, რომ პორნოგრაფიულ ვიდეოში
უშუალოდ ეს ადამიანები მონაწილეობენ. თუმცა, Deepfake პორნოგრაფიული
ვიდეოების მსხვერპლი ნებისმიერი ადამიანი შეიძლება გახდეს. მათ
შორისაა, 18 წლის ავსტრალიელი მოსწავლე ნოელ მარტინი, რომელმაც
ინტერნეტში ორალური სექსის ამსახველი ვიდეო მისივე მონაწილეობით ნახა.
მარტინმა პოლიციას მიმართა, თუმცა უშედეგოდ, რადგან არც ავსტრალიაში
და არც სხვა ქვეყნებში არ არსებობს კანონი, რომელიც Deepfake-ის
კრიმინალიზებას ახდენს.
საერთაშორისო ანალიტიკური ცენტრის Carnegie Endowment for
International Peace-ის სილიკონ ველის ოფისის დირექტორი შარლოტ
სტენტონი წერს, რომ Deepfake-ს შეუძლია
უხეშად ჩაერიოს პოლიტიკაში, მოახდინოს არჩევნების საბოტაჟი და
გააჭინაუროს დიპლომატიური ურთიერთობები.
მაგალითად, გასულ წელს ბელგიის ერთერთმა პოლიტიკურმა პარტიამ თვითერზე
გამოაქვეყნა Deepfake ვიდეო, რომელშიც ტრამპი
აკრიტიკებს ბელგიის პოზიციას კლიმატის ცვლილების შესახებ. ვიდეო
ვიზუალურად არც ისე რეალისტურია და შესაბამისად მარტივად შესამჩნევი
იყო მისი სიყალბეც, მიუხედავად ამისა მან ონლაინ პლატფორმაზე მაინც
მოახერხა ასობით კომენტარის პროვოცირება, რომელებშიც აუდიტორია
აღშფოთებას გამოხატავდა ტრამპის მიერ ბელგიის შიდა საქმეებში
ჩარევაზე.
პროფესორი ფარიდი კი Deepfake-ის შესაძლო საფრთხეს ასე ხსნის:
"წარმოიდგინეთ შემდეგი სცენარი: გამოქვეყნდა ტრამპის ხელოვნური
ინტელექტით დამუშავებული ვიდეო, სადაც ის ამბობს, რომ "მე ახლახანს
გავუშვი ატომური ბომბი ჩრდილოეთ კორეის წინააღმდეგ“. ეს ვიდეო
მოხვდება თვითერზე და გავირუსდება 30-60 წამში. ჩრდილოეთ კორეა
უპასუხებს მომდევნო 60 წამში, სანამ ვინმე გაარკვევს, რომ ვიდეო
ყალბია. ამის შემდეგ როგორ უნდა დავიჯეროთ ყველაფერი, რასაც
ვნახულობთ? ამიტომ Deepfake რეალური საფრთხეს უქმნის ჩვენს
დემოკრატიას."
თუმცა, მეორე მხრივ Deepfake-ების რიცხვის მატებამ შესაძლოა
აუდიტორიას ავთენტური ვიდეოების მიმართ სიყალბის ეჭვი გაუჩინოს.
ამერიკელი პროფესორები რობერტ ჩესნი და დენიელ სიტრონი ამ ეფექტს
"მატყუარას დივიდენდს" (liar’s dividend) უწოდებენ: რაც
უფრო მეტ ინფორმაციას იღებს საზოგადოება deepfake-ების შესახებ, მით
უფრო სკეპტიკურად უყურებს ვიდეოებს და მისთვის ბევრად ბუნებრივი ხდება
ავთენტური ვიდეოს ყალბად აღქმა.
კიდევ ერთ საფრთხეს წარმოადგენს ისიც, რომ მომავალში პოლიტიკოსებს
მარტივად შეეძლებათ თავი იმართლონ იმით, რომ მათზე გავრცელებული
ჩანაწერები კომპიუტერულადაა დამუშავებული.
•
როგორ
უნდა ამოვიცნოთ Deepfake?
კარგად დამუშავებული Deepfake-ის ამოცნობა რთულია, რადგან მას არ
გააჩნია აშკარა ნიშანი, რითაც მის სიყალბეში დავრწმუნდებით. თუმცა,
ასეთი ვიდეოების უმრავლესობას ზოგადად ახასიათებს რამდენიმე ფაქტორი:
ადამიანის არაბუნებრივი სუნთქვა, პულსი ან თვალების დახამხამება. თუ
ვიდეო 30 წამიანია და მასში ნაჩვენები ადამიანი თვალს არ ახამხამებს,
მაშინ ეს ვიდეო შესაძლოა ყალბი იყოს.
აღსანიშნავია, რომ Deepfake-ებთან
საბრძოლველად ევროკავშირმა ნაბიჯები უკვე გადადგა. ბრიუსელის ოფისმა
გასულ წელს გამოაქვეყნა ყველა ფორმის დეზინფორმაციასთან
ბრძოლის სტრატეგია, რომელიც Deepfake-ებსაც მოიცავს. აშშ-ის კი
კონგრესმენებმა ადამ შიფმა და სტეფანი მერფიმ ეროვნული დაზვერვის
დირექტორს მისწერეს წერილი, რომელშიც მოითხოვეს რომ
გაირკვეს როგორ შეიძლება სხვა ქვეყნების ხელისუფლებებმა, სადაზვერვო
სამსახურებმა და კერძო პირებმა Deepfake-ების საშუალებით აშშ-ის
ინტერესებს ავნონ და რა ფორმით შეიძლება მათი შეჩერება. ამ თემას
ცალკე მოხსენება დაუთმო სენატორმა მარკო
რუბიომაც. გარდა ამისა, პენტაგონმა უკვე დააფინანსა საკვლევი პროექტი
იმისთვის, რათა ახალი მეთოდები გამოიძებნოს deepfake-ების
გამოსავლენად.
ფაქტია, ტექნოლოგიები მუდმივ პროგრესს განიცდის, რაც კიდევ უფრო
მარტივს ხდის ყალბი, მაგრამ მაქსიმალურად რეალისტური კონტენტის
შექმნას, რომელიც მედიაში შესაძლოა დეზინფორმაციისა და პროპაგანდის
ნაწილად იქცეს.