AI മനുഷ്യവംശത്തിന്റെ അന്തകനാകും എന്നാണിപ്പോള്‍ ശാസ്ത്രജ്ഞരുടെ മുന്നറിയിപ്പ്. മുന്നറിയിപ്പ് മാത്രമല്ല, അതില്‍ പല പരീക്ഷണങ്ങളും നിര്‍ത്തിവയ്ക്കണമെന്നും നിരോധിക്കണമെന്നും അവരാവശ്യപ്പെട്ടിരിക്കുന്നു. AI -യുടെ തലതൊട്ടപ്പനായ യോഷ്വ ബെന്‍ജിയോ ഉള്‍പ്പടെ.

മോശം ഉദ്ദേശമുള്ളവരുടെ കൈയില്‍ കിട്ടിയാല്‍ AI -യെ ദുരുപയോഗിക്കാം. അതുമാത്രമല്ല, AI എല്ലാക്കാര്യത്തിലും മനുഷ്യനെ മറികടക്കാനുള്ള സാധ്യത തിരിച്ചറിയണം എന്നും തലതൊട്ടപ്പന്‍മാര്‍ മുന്നറിയിപ്പ് നല്‍കുന്നു. ഏകാധിപതികളുടെ കൈയില്‍ കിട്ടിയാല്‍ അതവര്‍ക്കൊരു ആയുധമാകും. ഭീകരവാദികള്‍ക്ക് സമൂഹത്തെ അസ്ഥിരമാക്കാം.

എതിര്‍കക്ഷിയുടെ സ്ഥാനാര്‍ത്ഥിയെ പ്രശംസിക്കുന്ന ഹിലരി ക്ലിന്റണ്‍, നിങ്ങളൊരിക്കലും യഥാര്‍ത്ഥ സ്ത്രീയാവില്ലെന്ന് മുരളുന്ന ജോ ബൈഡന്‍, ഇതൊക്കെയാണിപ്പോള്‍ അമേരിക്കന്‍ പ്രസിഡന്‍ഷ്യല്‍ തെരഞ്ഞെടുപ്പ് പ്രചാരണരംഗത്തെ കാഴ്ചകള്‍. ജനത്തിന് അമ്പരപ്പ്, സ്ഥാനാര്‍ത്ഥികള്‍ക്കും പാര്‍ട്ടികള്‍ക്കും അങ്കലാപ്പ്. വിഷയം എ ഐ (AI) അഥവാ ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് (Artificial Intelligence) ആണ്. കാണുന്നതെല്ലാം സത്യമോ മിഥ്യയോ എന്നറിയാതെ അമ്പരക്കുന്നു ജനം. AI മനുഷ്യവംശത്തിന്റെ അന്തകനാകും എന്നാണിപ്പോള്‍ ശാസ്ത്രജ്ഞരുടെ മുന്നറിയിപ്പ്. മുന്നറിയിപ്പ് മാത്രമല്ല, അതില്‍ പല പരീക്ഷണങ്ങളും നിര്‍ത്തിവയ്ക്കണമെന്നും നിരോധിക്കണമെന്നും അവരാവശ്യപ്പെട്ടിരിക്കുന്നു. AI -യുടെ തലതൊട്ടപ്പനായ യോഷ്വ ബെന്‍ജിയോ ഉള്‍പ്പടെ.

മായക്കാഴ്ചകളാണ് പലതും. യാഥാര്‍ത്ഥ്യമെന്തെന്ന് അറിയാന്‍ മാര്‍ഗവുമില്ല. ഇത്തരത്തില്‍ ആയിരക്കണക്കിനാണ് ദൃശ്യങ്ങള്‍ കാട്ടുതീ പോലെ പടരുന്നത്. പണ്ടുമുണ്ടായിട്ടുണ്ട്, പണച്ചലെവും കൂടുതലായിരുന്നു. ഇന്ന് ടൂളുകള്‍ പലത്, ചെലവും കുറവ്. 2022 വരെ ശബ്ദം പുന:സൃഷ്ടിക്കാന്‍ ക്ലോണ്‍ ചെയ്യാന്‍ 10,000 ഡോളറായിരുന്നു ചെലവ്. ഇന്ന് ഏതാനും ഡോളറുകള്‍ക്ക് ഇതു രണ്ടും നടക്കും. ചാറ്റ് ജി പി ടി എന്ന വാക്ക് നമ്മള്‍ കേട്ടുതുടങ്ങിയിട്ട് അധികമായിട്ടില്ല, അതിന്റെ സ്രഷ്ടാവായ OpenAI പോലും ഈ കൊടുങ്കാറ്റിന്റെ മുന്നില്‍ ആശയക്കുഴപ്പത്തിലാണ് എന്ന് പറയുമ്പോള്‍ കാര്യത്തിന്റെ ഗൗരവം മനസിലാകും.



AI -യ്ക്ക് മൂന്ന് തലതൊട്ടപ്പന്‍മാരാണ്. യോഷ്വ ബെന്‍ജിയോ, ഡോ.ജെഫ്രി ഹിന്‍ടണ്‍, പ്രൊഫ. യാന്‍ ലൂകന്‍. കണ്ടെത്തലുകള്‍ക്ക് Turing Award കിട്ടിയവര്‍. ഡോ.ജെഫ്രി ഹിന്‍ടണിന്റെ ഗവേഷണങ്ങളാണ് ചാറ്റ് ജി പി ടി പോലുള്ളവയ്ക്ക് വഴിതെളിച്ചത്. കൃത്രിമബുദ്ധിയുമായി Artificial Intelligence ബന്ധപ്പെട്ട ന്യൂറല്‍ നെറ്റ്‌വര്‍ക്‌സിനെയും (Neural Networks) ഡീപ്പ് ലേണിംഗിനെയും (Deep Learning) കുറിച്ചുള്ള ഗവേഷണം. മനുഷ്യന്റെ തലച്ചോറിന് സമാനമാണ് ന്യൂറല്‍ നെറ്റ്‌വര്‍ക്‌സ്. കാര്യങ്ങള്‍പഠിച്ച്, വിവരങ്ങള്‍ തരംതിരിക്കാന്‍ കഴിവുണ്ട് അതിന്. കാണുന്നതും കേള്‍ക്കുന്നതും മനുഷ്യനെപ്പോലെ തന്നെ മനസിലാക്കി, ഓര്‍മ്മയില്‍ സൂക്ഷിക്കാന്‍ കഴിയുമിവയ്ക്ക്. അതിനെയാണ് ഡീപ്പ് ലേണിംഗ് എന്നുപറയുന്നത്. നമ്മളിന്ന് കാണുന്ന ചാറ്റ് ബോട്ടുകള്‍ ഇതിന്റെ വകഭേദങ്ങളാണ്. ഡോ. ഹിന്‍ടണിന്റെ വിശദീകരണമനുസരിച്ച് മനുഷ്യന്‍ ബയോളജിക്കല്‍ ഇന്റലിജന്‍സാണ്. ചാറ്റ്‌ബോട്ടുകള്‍ ഡിജിറ്റല്‍ ഇന്റലിജന്‍സും. ഡിജിറ്റല്‍ ഇന്റലിജന്‍സിന്റെ ലോകത്ത്, പഠനം വേറെവേറെയാണെങ്കിലും അത് ഷെയര്‍ ചെയ്യാം. ഒന്നിന്റെ പകര്‍പ്പാവും മറ്റെല്ലാം. ഡോ. ഹിന്‍ടണിന്റെ അഭിപ്രായത്തില്‍, അധികം താമസിയാതെ വിവരങ്ങള്‍ ഓര്‍ത്തുവയ്ക്കുന്നതില്‍ മനുഷ്യന്റെ തലച്ചോറിനെ കടത്തിവെട്ടും ചാറ്റ്‌ബോട്ടുകള്‍. GPT 4 ഇപ്പോള്‍ തന്നെ പൊതുവിജ്ഞാനത്തില്‍ മനുഷ്യനേക്കാള്‍ മുന്നിലാണ്, ബോധജ്ഞാനത്തില്‍ പിന്നിലാണെങ്കിലും. പക്ഷേ സംഭവങ്ങളുടെ ഗതിവേഗം വളരെ കൂടുതല്‍, അതുകൊണ്ട് സൂക്ഷിക്കണം എന്നുപറയുന്നു, ഡോ. ഹിന്‍ടണ്‍. 

യോഷ്വ ബെന്‍ജിയോ എന്ന തലതൊട്ടപ്പന്‍ ഇന്ന് ബോധവത്കരണത്തിനുള്ള ശ്രമത്തിലാണ്. കണ്ടെത്തലുകളില്‍ പശ്ചാത്താപമുണ്ടെന്ന് പറഞ്ഞ് ജെഫ്രി ഹിന്റണ്‍ ഗൂഗിളില്‍ നിന്ന് രാജിവച്ചു. മൂന്നാമന്‍ യാന്‍ ലൂകന്‍ മാത്രം പറഞ്ഞു, മുന്നറിയിപ്പുകള്‍ അത്ര ഗുരുതരമായി കാണേണ്ട എന്ന്. ആശങ്കകളുള്ളവരുടെ കൂട്ടത്തിലാണ് ടെസ്ല ഉടമ ഇലോണ്‍ മസ്‌ക്. എഐ മനുഷ്യവംശത്തിന്റെ അന്തകനായേക്കാം എന്ന സാധ്യത ചെറുതാണെങ്കിലും ഉണ്ട് എന്നാണ് മസ്‌കിന്റെ പക്ഷം.

എഐ ഉത്പന്നങ്ങളെ സര്‍ക്കാരുകള്‍ നിരന്തരം നിരീക്ഷിക്കണം, നിരന്തരം പരിശോധിക്കണം എന്നാവശ്യപ്പെടുന്നു, യോഷ്വ. അതില്‍ പ്രവര്‍ത്തിക്കുന്നവര്‍ക്ക് ധാര്‍മ്മികതയെയും നൈതികതയെയും അടിസ്ഥാനമാക്കി പരിശീലനം നല്‍കണം എന്നും അദ്ദേഹം ആവശ്യപ്പെടുന്നു. എത്രത്തോളം അതൊക്കെ നടപ്പാകും എന്ന സംശയമിപ്പോഴും വ്യക്തം. 

മോശം ഉദ്ദേശമുള്ളവരുടെ കൈയില്‍ കിട്ടിയാല്‍ AI -യെ ദുരുപയോഗിക്കാം. അതുമാത്രമല്ല, AI എല്ലാക്കാര്യത്തിലും മനുഷ്യനെ മറികടക്കാനുള്ള സാധ്യത തിരിച്ചറിയണം എന്നും തലതൊട്ടപ്പന്‍മാര്‍ മുന്നറിയിപ്പ് നല്‍കുന്നു. ഏകാധിപതികളുടെ കൈയില്‍ കിട്ടിയാല്‍ അതവര്‍ക്കൊരു ആയുധമാകും. ഭീകരവാദികള്‍ക്ക് സമൂഹത്തെ അസ്ഥിരമാക്കാം. കൂട്ടായ തീരുമാനങ്ങളെ അട്ടിമറിക്കാം. കിട്ടുന്നത് സൈക്കോപാത്തുകളുടെ കൈയിലെങ്കില്‍ അത് മറ്റൊരു തരത്തില്‍ അപകടമാകും. ചുരുക്കത്തില്‍ എ ഐ ആരുടെ കൈയില്‍ കിട്ടുന്നു എന്നതുംഅവരത് എങ്ങനെ ഉപയോഗിക്കുന്നു എന്നതും പ്രധാനമാണ്. 

ദു:സ്വപ്നമാണെങ്കിലും, ഇപ്പോഴത്തെ സാഹചര്യത്തില്‍ റഷ്യന്‍ പ്രസിഡന്റ് വ്‌ലദിമിര്‍ പുടിനെപ്പോലെ ഒരാള്‍, റോബോട്ടുകള്‍ക്ക് സ്വന്തം ലക്ഷ്യങ്ങള്‍ സൃഷ്ടിക്കാന്‍ അനുമതി കൊടുത്താലോ എന്ന് ബിബിസിയോട് ചോദിച്ചു ഡോ. ഹിന്‍ടണ്‍. 

OpenAI, Google Deepmind എന്നീ സ്ഥാപനങ്ങളുടെ മേധാവികള്‍ AI -യുടെ അപകടങ്ങളെക്കുറിച്ച് കടുത്ത മുന്നറിയിപ്പാണ് നല്‍കുന്നത്. വര്‍ത്തമാനകാലത്തെ അപകടങ്ങളിലൊന്നാണ് തെറ്റായ വിവരങ്ങള്‍ പ്രചരിപ്പിക്കുക എന്നത്. അതിന് പറ്റിയ മാഗമാണ് എ ഐ. അതിലൂടെ സത്യം വളച്ചൊടിക്കാം. ജനങ്ങളുടെ വിശ്വാസത്തിന്റെ അടിത്തറയിളക്കാം. ഭരണകൂടങ്ങളെ അട്ടിമറിക്കാം. ചെറിയ ടൂളുകളിലൂടെ ഈ വക ശ്രമങ്ങള്‍ ഇപ്പോള്‍ തന്നെ സാധ്യമാണ്. 

ഉദാഹരണത്തിന് ഗുസ്തിതാരങ്ങളുടെ പ്രക്ഷോഭത്തിനിടെ പുറത്തുവന്ന ചിത്രം. പൊലീസ് വാഹനത്തിലിരുന്ന് അവര്‍ എടുത്ത ചിത്രത്തിന് ഉദ്ദേശമുണ്ടായിരുന്നു. തങ്ങളെ എങ്ങോട്ടാണ് കൊണ്ടുപോകുന്നതെന്നും ആരൊക്കയാണ് ഉണ്ടായിരുന്നതെന്നും അറിയുക. ആ ചിത്രത്തിലുണ്ടായിരുന്നത് ഇനി എന്താവും എന്ന അനിശ്ചിതത്വം മുറുകിയിരിക്കുന്ന താരങ്ങളുടെ മുഖമായിരുന്നു. എന്നാല്‍, ആ ചിത്രത്തെ എ ഐ ഉപയോഗിച്ച് മാറ്റിമറിച്ച് പുറത്തുവന്ന ചിത്രത്തിലാവട്ടെ അവരുടെ മുഖത്തുണ്ടായിരുന്നത് ചിരിയായിരുന്നു. പൊലീസ് വാഹനത്തില്‍ ചിരിക്കുന്ന താരങ്ങള്‍ എന്ന മട്ടില്‍ ആ ചിത്രം പ്രചരിപ്പിച്ചപ്പോള്‍, അതിന്റെ ഉദ്ദേശം വേറെയായിരുന്നു. സമരം വെറും തമാശ, സത്യസന്ധമല്ല, എന്ന് പ്രചരിപ്പിക്കല്‍. അതവര്‍ ചെയ്തു. വാട്ട്‌സാപ്പിലൂടെയും ഫേസ്ബുക്കിലൂടെയും മറ്റും തെറ്റായ ചിത്രം ലക്ഷങ്ങളിലേക്ക് എത്തി. 

എ ഐ ഉപയോഗിച്ച് ആസൂത്രിതമായി നിര്‍മിച്ച ഇത്തരം ഫേക്ക് ഇമേജുകള്‍ കണ്ടുപിടിക്കാന്‍ മാര്‍ഗങ്ങളുണ്ട്. പക്ഷേ, അത് അത്ര എളുപ്പമല്ല. എഐ എന്ന നിര്‍മ്മിതബുദ്ധിയുടെ മാസ്റ്റര്‍പീസുകള്‍ തിരിച്ചറിയുക ഒട്ടും എളുപ്പമല്ല. മാത്രമല്ല, ഇവ പ്രചരിപ്പിക്കപ്പെടുന്നത്, സംശയമില്ലാതെ ഇത്തരം ചിത്രങ്ങളെ കാണുകയും അത് വി്വെസിക്കുകയും ചെയ്യുന്ന വലിയ പറ്റം മനുഷ്യരുടെ ഇടയിലാണ്. അവരത് കണ്ണുംപൂട്ടി വിശ്വസിക്കാനാണ് സാദ്ധ്യത. ഇനി, അത് തെറ്റാണെന്ന് ആരെങ്കിലും കണ്ടുപിടിച്ചാലും, ആ കണ്ടുപിടിത്തം എത്തുന്നത് ചെറിയ വിഭാഗം ആളുകളിലേക്കായിരിക്കും. വലിയൊരു വിഭാഗം ആ ഇമേജ് സത്യമെന്നു തന്നെ കരുതും. അങ്ങനെ ആഗ്രഹിക്കുന്ന തല്‍പ്പരകക്ഷികള്‍ക്ക് അവരുടെ ലക്ഷ്യം പൂര്‍ത്തീകരിക്കാനും ഇതുവഴി സാധിക്കും. 

തെറ്റായ വാര്‍ത്തകള്‍ പടരുന്നത് തടയാന്‍ ട്വിറ്റര്‍, ഫേസ്ബുക്ക്, യൂട്യൂബ് തുടങ്ങിയവ മാര്‍ഗങ്ങള്‍ ഏര്‍പ്പെടുത്തിയിട്ടുണ്ട്, വ്യാജ ഇമേജുകളും വീഡിയോകളും മറ്റും കണ്ടെത്തിയാല്‍ അവ നീക്കം ചെയ്യും. പക്ഷേ, പക്ഷേ Deepfake സങ്കേതങ്ങള്‍ ഉപയോഗിച്ച് ബോധപൂര്‍വ്വം സൃഷ്ടിക്കപ്പെടുന്ന ഇമേജുകള്‍ കണ്ടെത്തകാന്‍ പോലും എളുപ്പമാവില്ല. 

ഈ വര്‍ഷം മാര്‍ച്ചിലാണ് AI -യുടെ വികസനം നിര്‍ത്തിവയ്ക്കണമെന്ന് ആവശ്യപ്പെട്ടുള്ള തുറന്ന കത്തില്‍ വിദഗ്ധര്‍ ഒപ്പിട്ടത്. ടെസ്‌ലയുടെ ജീവാത്മാവായ എലോണ്‍ മസ്‌കും ഒപ്പിട്ടു, ആ കത്തില്‍. എണ്ണത്തിലും ബുദ്ധിയിലും മനുഷ്യനെ മറികടക്കാനും മനുഷ്യന് പകരമാകാനും കഴിയുന്ന മനുഷ്യന്റേതല്ലാത്ത മനസുകള്‍ വികസിപ്പിക്കണോ എന്നാണ് കത്തിലെ ചോദ്യം. ആണവോര്‍ജ്ജത്തോട് താരതമ്യം ചെയ്യുകയാണിപ്പോള്‍ നിര്‍മ്മിതബുദ്ധിയെ.

G7 രാഷ്ട്രങ്ങള്‍ AI ചര്‍ച്ചകള്‍ക്ക് പ്രത്യേകസംഘത്തിന് രൂപംനല്‍കിയിട്ടുണ്ട്. ഗൂഗിള്‍ മേധാവി സുന്ദര്‍ പിച്ചായിയും OPEN AI മേധാവി സാം ആള്‍ട്ട്മാനും ബ്രിട്ടിഷ് പ്രധാനമന്ത്രി ഋഷി സുനകുമായി ഈ വിഷയത്തില്‍ ചര്‍ച്ചകള്‍ നടത്തിയിരുന്നു.

ഇതെല്ലാം തള്ളിക്കളയുന്നവരുമുണ്ട്. AI -യുടെ പ്രയോജനങ്ങള്‍ കാണൂ, പുതിയ മരുന്ന് കണ്ടുപിടിച്ചതും, ശരീരം തളര്‍ന്ന ഒരാള്‍ക്ക് നടക്കാന്‍ സാധിച്ചതും നിസ്സാരമാണോ എന്നാണ് അവരുയര്‍ത്തുന്ന ചോദ്യം. ഇതേ വാദം ബ്രിട്ടീഷ് പ്രധാനമന്ത്രി സുനകും ഉന്നയിച്ചിരുന്നു. പ്രയോജനങ്ങള്‍ മനസില്‍ വച്ചുകൊണ്ട് നിയന്ത്രണങ്ങള്‍ ആലോചിക്കാമെന്നാണ് അദ്ദേഹത്തിന്റെ പക്ഷം.

എ ഐ രംഗത്തെ ഗവേഷണ, വികസന പദ്ധതികള്‍ പൂര്‍ണമായി നിര്‍ത്തിവയ്ക്കണം എന്നല്ല, ഇതിന് നിയന്ത്രണം വേണം എന്നാണ് ആവശ്യമുയരുന്നത്. ഉത്തരവാദിത്തബോധമുള്ള സമീപനത്തിന്റെ ആവശ്യം എല്ലാവരും മനസിലാക്കണം. AI യുടെ ഉരുത്തിരിയലിന്റെ ഗതിവേഗം അവരുടെ സ്രഷ്ടാക്കളെ തന്നെ അമ്പരപ്പിക്കുന്നുണ്ട്. ഗൂഗിളിന്റെ ചാറ്റ് ബോട്ടായ Bard ചെയ്യുന്നതെല്ലാമൊന്നും തനിക്ക് തന്നെ മനസ്സിലാകാറില്ലെന്ന് സുന്ദര്‍ പിച്ചായി പറഞ്ഞത് അടുത്തകാലത്താണ്. ചാറ്റ്‌ബോട്ടുകള്‍ AI -യുടെ ഒരു വിഭാഗം മാത്രമാണ്. വീഡിയോ സ്ട്രീമിംഗ് പ്ലാറ്റ്‌ഫോമുകളില്‍ അടുത്തതായി നാം എന്ത് കാണണമെന്ന് നിര്‍ദ്ദേശിക്കുന്ന അല്‍ഗോരിതത്തിന് പിന്നിലും AI ആണ്. അതുപോലെ ചെറുതും വലുതുമായ പ്രയോജനങ്ങള്‍ പലതുണ്ട്. അതുപോലതന്നെ ഭീഷണികളും. ചില ഹോളിവുഡ് ചിത്രങ്ങളിലെ പോലെ ചിന്തിക്കുന്ന റോബോട്ടുകള്‍ മനുഷ്യനെതിരായി തിരിയുക എന്നത് ഒരു സാധ്യതയായി തന്നെ മുന്നോട്ടുവയ്ക്കുന്നു, വിദഗ്ധര്‍.

ചാറ്റ് ബോട്ടുകള്‍ കാരണം ചിപ് മേക്കറായ NVIDIA 1 കുറച്ചുസമയത്തേക്കാണെങ്കിലും ട്രില്യന്‍ ആസ്തിയുള്ള ചുരുക്കം കമ്പനികളിലൊന്നായി. ചാറ്റ്‌ബോട്ടുകളെ പരിശീലിപ്പിച്ചത് NVIDIA -യുടെ GPU (Graphics Processing Units). ഉപയോഗിച്ചാണ്. ഇക്കഴിഞ്ഞ ഒരു വര്‍ഷത്തിനിടെ കമ്പനിയുടെ ഓഹരിവില ഇരട്ടിയിലും കൂടുതലായിരുന്നു. AI യുടെ വികസനഗതിവേഗം കൂടുന്നതോടെ NVIDIA-യുടെ ലാഭക്കണക്കുകളും കൂടും.