Latest Videos

ബോളിവുഡ് താരങ്ങളുടെ നഗ്ന ഡീപ്പ് ഫേക്കുകളില്‍ നിര്‍ണ്ണായക തെളിവ്; അന്വേഷിച്ച് കണ്ടെത്തിയപ്പോള്‍ ട്വിസ്റ്റ്.!

By Web TeamFirst Published Nov 8, 2023, 7:49 AM IST
Highlights

 ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

ദില്ലി: ഡീപ്പ്ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച്  നിർമ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകൾ വീണ്ടും റിപ്പോർട്ട് ചെയ്തു. ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോൾ, ദീപിക പദുക്കോൺ തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിർമ്മിച്ചതായാണ് കണ്ടെത്തൽ. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തു.

ബൂം ലൈവ് റിപ്പോർട്ട് അനുസരിച്ച്, മുമ്പ് @crazyashfan എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നിൽ. എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടിൽ ഉണ്ടായിരുന്നത്.

സമാനമായ നാല് അക്കൗണ്ടുകൾ കൂടി കണ്ടെത്തിയിട്ടുണ്ട്.  ഡീപ്ഫേക്ക് ട്രെൻഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തിൽ തന്റെ ശബ്ദം ക്ലോൺ ചെയ്തതിന് എഐ ക്ലോൺ ആപ്പിനെതിരെ കേസ് ഫയൽ ചെയ്ത് ഹോളിവുഡ് സൂപ്പർസ്റ്റാർ സ്കാർലറ്റ് ജോഹാൻസെൻ രംഗത്തെത്തിയിരുന്നു. 

എഐ സൃഷ്ടിച്ച ഫോട്ടോകളും ജോഹാൻസനെ അനുകരിക്കുന്ന ശബ്ദവും പരസ്യത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. ആപ്പിനെതിരെ നിയമനടപടി സ്വീകരിക്കുമെന്ന് ജോഹാൻസന്റെ ടീം അറിയിച്ചു. ഇതിനുപിന്നാലെ എഐ നിയന്ത്രണത്തിന്റെ ആവശ്യകതയെക്കുറിച്ച് മൈക്രോസോഫ്റ്റ് പ്രസിഡന്റ് ബ്രാഡ് സ്മിത്തും അഭിപ്രായം പങ്കുവെച്ചിരുന്നു. എഐയുടെ ദുരുപയോഗത്തിൽ നിന്ന് ഉപയോക്താക്കളെ സംരക്ഷിക്കാനുള്ള നടപടി സ്വീകരിക്കുമെന്നും അദ്ദേഹം പറഞ്ഞു.

തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുന്ന അപകടകരമായ സംവിധാനമാണ് എഐ ഡീപ്പ് ഫേക്ക്. മയഥാർത്ഥമെന്ന് തോന്നും വിധത്തിൽ അത്യാധുനിക എഐ സാങ്കേതിക വിദ്യകളുടെ സഹായത്തോടെ നിർമിക്കുന്ന വ്യാജ ചിത്രങ്ങളും വീഡിയോകളും ശബ്ദങ്ങളുമാണ് ഡീപ്പ് ഫേക്കുകൾ എന്നറിയപ്പെടുന്നത്. ഒറിജിനലും ഫേക്കും കണ്ടുപിടിക്കാൻ പ്രയാസമാണ്. 

വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകൾ, ഭാവങ്ങൾ, ശബ്ദ പാറ്റേണുകൾ, ടാർഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകൾ ഉണ്ടെങ്കിൽ അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനർനിർമ്മിച്ച ഡാറ്റ ചേർക്കാൻ  എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കുക, വ്യാജവാർത്തകൾ സൃഷ്‌ടിക്കുക, ആൾമാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകൾ വർധിപ്പിക്കുന്നുണ്ട്.

'ഞാൻ സ്കൂളിലോ കോളേജിലോ പഠിക്കുമ്പോഴാണ് എനിക്ക് ഇത് സംഭവിച്ചതെങ്കിൽ': ഭയാനക സംഭവത്തില്‍ രശ്മിക.!

രശ്മിക മന്ദാനയുടെ വ്യാജ ഫോട്ടോയ്ക്ക് പിന്നിലെ വില്ലൻ; കരുതിയിരിക്കണം ഇവനെ, ചെയ്യേണ്ട കാര്യങ്ങൾ

​​​​​​​Asianet News Live
 

click me!