Asianet News MalayalamAsianet News Malayalam

ബോളിവുഡ് താരങ്ങളുടെ നഗ്ന ഡീപ്പ് ഫേക്കുകളില്‍ നിര്‍ണ്ണായക തെളിവ്; അന്വേഷിച്ച് കണ്ടെത്തിയപ്പോള്‍ ട്വിസ്റ്റ്.!

 ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

Twitter account was creating and sharing nude Deepfake videos of Bollywood actors now deleted vvk
Author
First Published Nov 8, 2023, 7:49 AM IST

ദില്ലി: ഡീപ്പ്ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച്  നിർമ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകൾ വീണ്ടും റിപ്പോർട്ട് ചെയ്തു. ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോൾ, ദീപിക പദുക്കോൺ തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിർമ്മിച്ചതായാണ് കണ്ടെത്തൽ. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തു.

ബൂം ലൈവ് റിപ്പോർട്ട് അനുസരിച്ച്, മുമ്പ് @crazyashfan എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നിൽ. എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടിൽ ഉണ്ടായിരുന്നത്.

സമാനമായ നാല് അക്കൗണ്ടുകൾ കൂടി കണ്ടെത്തിയിട്ടുണ്ട്.  ഡീപ്ഫേക്ക് ട്രെൻഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

എഐ സൃഷ്ടിച്ച ഫോട്ടോകളും ജോഹാൻസനെ അനുകരിക്കുന്ന ശബ്ദവും പരസ്യത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. ആപ്പിനെതിരെ നിയമനടപടി സ്വീകരിക്കുമെന്ന് ജോഹാൻസന്റെ ടീം അറിയിച്ചു. ഇതിനുപിന്നാലെ എഐ നിയന്ത്രണത്തിന്റെ ആവശ്യകതയെക്കുറിച്ച് മൈക്രോസോഫ്റ്റ് പ്രസിഡന്റ് ബ്രാഡ് സ്മിത്തും അഭിപ്രായം പങ്കുവെച്ചിരുന്നു. എഐയുടെ ദുരുപയോഗത്തിൽ നിന്ന് ഉപയോക്താക്കളെ സംരക്ഷിക്കാനുള്ള നടപടി സ്വീകരിക്കുമെന്നും അദ്ദേഹം പറഞ്ഞു.

തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുന്ന അപകടകരമായ സംവിധാനമാണ് എഐ ഡീപ്പ് ഫേക്ക്. മയഥാർത്ഥമെന്ന് തോന്നും വിധത്തിൽ അത്യാധുനിക എഐ സാങ്കേതിക വിദ്യകളുടെ സഹായത്തോടെ നിർമിക്കുന്ന വ്യാജ ചിത്രങ്ങളും വീഡിയോകളും ശബ്ദങ്ങളുമാണ് ഡീപ്പ് ഫേക്കുകൾ എന്നറിയപ്പെടുന്നത്. ഒറിജിനലും ഫേക്കും കണ്ടുപിടിക്കാൻ പ്രയാസമാണ്. 

വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകൾ, ഭാവങ്ങൾ, ശബ്ദ പാറ്റേണുകൾ, ടാർഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകൾ ഉണ്ടെങ്കിൽ അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനർനിർമ്മിച്ച ഡാറ്റ ചേർക്കാൻ  എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുക, വ്യാജവാർത്തകൾ സൃഷ്‌ടിക്കുക, ആൾമാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകൾ വർധിപ്പിക്കുന്നുണ്ട്.

'ഞാൻ സ്കൂളിലോ കോളേജിലോ പഠിക്കുമ്പോഴാണ് എനിക്ക് ഇത് സംഭവിച്ചതെങ്കിൽ': ഭയാനക സംഭവത്തില്‍ രശ്മിക.!

രശ്മിക മന്ദാനയുടെ വ്യാജ ഫോട്ടോയ്ക്ക് പിന്നിലെ വില്ലൻ; കരുതിയിരിക്കണം ഇവനെ, ചെയ്യേണ്ട കാര്യങ്ങൾ

​​​​​​​Asianet News Live
 

Follow Us:
Download App:
  • android
  • ios