Asianet News MalayalamAsianet News Malayalam

രശ്മിക മന്ദാനയുടെ ഡീപ് ഫേക്ക് വീഡിയോ: നിർമിച്ചവരും പങ്കിട്ടവരും കുടുങ്ങും, സുപ്രധാന നീക്കവുമായി ദില്ലി പൊലീസ്

നേരത്തെ  സിറ്റി പോലീസ് എഫ്‌ഐആർ ഫയൽ ചെയ്തിരുന്നു. മെറ്റ വിവരങ്ങളിലൂടെ വ്യാജ വീഡിയോ നിർമിച്ച് സോഷ്യൽ മീഡിയയിൽ പ്രചരിപ്പിച്ച വ്യക്തികളുടെ വിവരങ്ങൾ കണ്ടെത്താൻ കഴിയുമെന്ന പ്രതീക്ഷയിലാണ് പൊലീസ്. 

Rashmika Mandana s Deep Fake Video Those who made and shared it will be arrested Delhi Police takes important action
Author
First Published Nov 11, 2023, 9:42 PM IST

ദില്ലി; നടി രശ്മിക മന്ദാനയുടെ 'ഡീപ്ഫേക്ക്' വീഡിയോ നിർമിച്ച് സോഷ്യൽ മീഡിയയിൽ പങ്കുവെച്ചവരെ കുടുക്കാൻ പൊലീസ്. സംഭവത്തിൽ വീഡിയോ പങ്കുവച്ച അക്കൌണ്ടിന്റെ വിവരങ്ങൾ നൽകാൻ മെറ്റയെ സമീപിച്ചിരിക്കുകയാണ് ദില്ലി പൊലീസ്. നേരത്തെ  സിറ്റി പോലീസ് എഫ്‌ഐആർ ഫയൽ ചെയ്തിരുന്നു. മെറ്റ വിവരങ്ങളിലൂടെ വ്യാജ വീഡിയോ നിർമിച്ച് സോഷ്യൽ മീഡിയയിൽ പ്രചരിപ്പിച്ച വ്യക്തികളുടെ വിവരങ്ങൾ കണ്ടെത്താൻ കഴിയുമെന്ന പ്രതീക്ഷയിലാണ് പൊലീസ്. 
 
ബന്ധപ്പെട്ട യുആർഎൽ ഐഡിയടക്കമുള്ള വിവരങ്ങൾ നൽകാൻ മെറ്റയോട് ഒൌദ്യോഗികമായി ആശയവിനിമയം നടത്തിയെന്ന് അന്വേഷണസംഘത്തിലെ ഉദ്യോഗസ്ഥൻ വെളിപ്പെടുത്തിയതായി പിടിഐ റിപ്പോർട്ട് ചെയ്യുന്നു.  ദില്ലി പൊലീസിന്റെ സ്‌പെഷ്യൽ സെല്ലിലെ ഇന്റലിജൻസ് ഫ്യൂഷൻ ആൻഡ് സ്ട്രാറ്റജിക് ഓപ്പറേഷൻസ് യൂണിറ്റിലാണ് കേസ് രജിസ്റ്റർ ചെയ്തിരിക്കുന്നത്. സെക്ഷൻ 66 സി, 66 ഇ എന്നിവയ്‌ക്കൊപ്പം സെക്ഷൻ 465, 469 എന്നിവയാണ് കുറ്റക്കാർക്കെതിരെ ചുമത്തിയിരിക്കുന്നത്. കേസ് ഉടനടി പരിഹരിക്കപ്പെടുമെന്ന് ഉദ്യോഗസ്ഥൻ ശുഭാപ്തിവിശ്വാസം പ്രകടിപ്പിച്ചതായും റിപ്പോർട്ടിൽ പറയുന്നു. വീഡിയോ സംഭവത്തിൽ ഉൾപ്പെട്ടവർക്കെതിരെ നടപടിയെടുക്കണമെന്ന് ആവശ്യപ്പെട്ട് ദില്ലി വനിതാ കമ്മീഷനും സിറ്റി പൊലീസിന് നോട്ടീസ് അയച്ചിരുന്നു.

അതേസമയം, ഡീപ്പ്ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച്  നിർമ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകൾ വീണ്ടും റിപ്പോർട്ട് ചെയ്തിരുന്നു. ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോൾ, ദീപിക പദുക്കോൺ തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിർമ്മിച്ചതായാണ് കണ്ടെത്തൽ. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തിരുന്നു.

ബൂം ലൈവ് റിപ്പോർട്ട് അനുസരിച്ച്, മുമ്പ് @crazyashfan എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നിൽ. എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടിൽ ഉണ്ടായിരുന്നത്. സമാനമായ നാല് അക്കൗണ്ടുകൾ കൂടി കണ്ടെത്തിയിട്ടുണ്ട്. ഡീപ്ഫേക്ക് ട്രെൻഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

എഐ സൃഷ്ടിച്ച ഫോട്ടോകളും ജോഹാൻസനെ അനുകരിക്കുന്ന ശബ്ദവും പരസ്യത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. ആപ്പിനെതിരെ നിയമനടപടി സ്വീകരിക്കുമെന്ന് ജോഹാൻസന്റെ ടീം അറിയിച്ചു. ഇതിനുപിന്നാലെ എഐ നിയന്ത്രണത്തിന്റെ ആവശ്യകതയെക്കുറിച്ച് മൈക്രോസോഫ്റ്റ് പ്രസിഡന്റ് ബ്രാഡ് സ്മിത്തും അഭിപ്രായം പങ്കുവെച്ചിരുന്നു. എഐയുടെ ദുരുപയോഗത്തിൽ നിന്ന് ഉപയോക്താക്കളെ സംരക്ഷിക്കാനുള്ള നടപടി സ്വീകരിക്കുമെന്നും അദ്ദേഹം പറഞ്ഞു. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുന്ന അപകടകരമായ സംവിധാനമാണ് എഐ ഡീപ്പ് ഫേക്ക്. യഥാർത്ഥമെന്ന് തോന്നും വിധത്തിൽ അത്യാധുനിക എഐ സാങ്കേതികവിദ്യകളുടെ സഹായത്തോടെ നിർമിക്കുന്ന വ്യാജ ചിത്രങ്ങളും വീഡിയോകളും ശബ്ദങ്ങളുമാണ് ഡീപ്പ് ഫേക്കുകൾ എന്നറിയപ്പെടുന്നത്. ഒറിജിനലും ഫേക്കും കണ്ടുപിടിക്കാൻ പ്രയാസമാണ്. 

Read more: ബോളിവുഡ് താരങ്ങളുടെ നഗ്ന ഡീപ്പ് ഫേക്കുകളില്‍ നിര്‍ണ്ണായക തെളിവ്; അന്വേഷിച്ച് കണ്ടെത്തിയപ്പോള്‍ ട്വിസ്റ്റ്.!

വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകൾ, ഭാവങ്ങൾ, ശബ്ദ പാറ്റേണുകൾ, ടാർഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകൾ ഉണ്ടെങ്കിൽ അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനർനിർമ്മിച്ച ഡാറ്റ ചേർക്കാൻ  എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുക, വ്യാജവാർത്തകൾ സൃഷ്‌ടിക്കുക, ആൾമാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകൾ വർധിപ്പിക്കുന്നുണ്ട്.
 

Follow Us:
Download App:
  • android
  • ios