ബോളിവുഡ് താരങ്ങളുടെ നഗ്ന ഡീപ്പ് ഫേക്കുകളില്‍ നിര്‍ണ്ണായക തെളിവ്; അന്വേഷിച്ച് കണ്ടെത്തിയപ്പോള്‍ ട്വിസ്റ്റ്.!

Published : Nov 08, 2023, 07:49 AM IST
ബോളിവുഡ് താരങ്ങളുടെ നഗ്ന ഡീപ്പ് ഫേക്കുകളില്‍ നിര്‍ണ്ണായക തെളിവ്; അന്വേഷിച്ച് കണ്ടെത്തിയപ്പോള്‍ ട്വിസ്റ്റ്.!

Synopsis

 ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

ദില്ലി: ഡീപ്പ്ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച്  നിർമ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകൾ വീണ്ടും റിപ്പോർട്ട് ചെയ്തു. ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോൾ, ദീപിക പദുക്കോൺ തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിർമ്മിച്ചതായാണ് കണ്ടെത്തൽ. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തു.

ബൂം ലൈവ് റിപ്പോർട്ട് അനുസരിച്ച്, മുമ്പ് @crazyashfan എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നിൽ. എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടിൽ ഉണ്ടായിരുന്നത്.

സമാനമായ നാല് അക്കൗണ്ടുകൾ കൂടി കണ്ടെത്തിയിട്ടുണ്ട്.  ഡീപ്ഫേക്ക് ട്രെൻഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

എഐ സൃഷ്ടിച്ച ഫോട്ടോകളും ജോഹാൻസനെ അനുകരിക്കുന്ന ശബ്ദവും പരസ്യത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. ആപ്പിനെതിരെ നിയമനടപടി സ്വീകരിക്കുമെന്ന് ജോഹാൻസന്റെ ടീം അറിയിച്ചു. ഇതിനുപിന്നാലെ എഐ നിയന്ത്രണത്തിന്റെ ആവശ്യകതയെക്കുറിച്ച് മൈക്രോസോഫ്റ്റ് പ്രസിഡന്റ് ബ്രാഡ് സ്മിത്തും അഭിപ്രായം പങ്കുവെച്ചിരുന്നു. എഐയുടെ ദുരുപയോഗത്തിൽ നിന്ന് ഉപയോക്താക്കളെ സംരക്ഷിക്കാനുള്ള നടപടി സ്വീകരിക്കുമെന്നും അദ്ദേഹം പറഞ്ഞു.

തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുന്ന അപകടകരമായ സംവിധാനമാണ് എഐ ഡീപ്പ് ഫേക്ക്. മയഥാർത്ഥമെന്ന് തോന്നും വിധത്തിൽ അത്യാധുനിക എഐ സാങ്കേതിക വിദ്യകളുടെ സഹായത്തോടെ നിർമിക്കുന്ന വ്യാജ ചിത്രങ്ങളും വീഡിയോകളും ശബ്ദങ്ങളുമാണ് ഡീപ്പ് ഫേക്കുകൾ എന്നറിയപ്പെടുന്നത്. ഒറിജിനലും ഫേക്കും കണ്ടുപിടിക്കാൻ പ്രയാസമാണ്. 

വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകൾ, ഭാവങ്ങൾ, ശബ്ദ പാറ്റേണുകൾ, ടാർഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകൾ ഉണ്ടെങ്കിൽ അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനർനിർമ്മിച്ച ഡാറ്റ ചേർക്കാൻ  എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുക, വ്യാജവാർത്തകൾ സൃഷ്‌ടിക്കുക, ആൾമാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകൾ വർധിപ്പിക്കുന്നുണ്ട്.

'ഞാൻ സ്കൂളിലോ കോളേജിലോ പഠിക്കുമ്പോഴാണ് എനിക്ക് ഇത് സംഭവിച്ചതെങ്കിൽ': ഭയാനക സംഭവത്തില്‍ രശ്മിക.!

രശ്മിക മന്ദാനയുടെ വ്യാജ ഫോട്ടോയ്ക്ക് പിന്നിലെ വില്ലൻ; കരുതിയിരിക്കണം ഇവനെ, ചെയ്യേണ്ട കാര്യങ്ങൾ

​​​​​​​Asianet News Live
 

PREV
click me!

Recommended Stories

മസ്‌കിന്‍റെ കോടികൾ വേണ്ടെന്ന് ചൈനക്കാരായ 2 ജെൻ സി വിദ്യാർത്ഥികൾ; ഓപ്പൺഎഐ- യെ കടത്തിവെട്ടി 'ചിന്തിക്കുന്ന' എഐ മോഡൽ
'പണം പോയി പ്രതാപം വരട്ടെ', ഇന്ത്യൻ ജെൻ സിയുടെ സ്വപ്നം 'ഐഫോൺ'