എഐയ്‌ക്ക് ഫോട്ടോകള്‍ നല്‍കുമ്പോള്‍ ശ്രദ്ധിക്കണം; പതിയിരിക്കുന്നത് അപകട കെണികളാകാം

0
28

മൂഹ മാധ്യമങ്ങളില്‍ ഇപ്പോള്‍ നാനോ ബനാന എഐ സാരി ചിത്രങ്ങളാണ് ട്രെന്‍ഡിങ്. ജെമിനി ഉപയോഗിച്ച് നിര്‍മിക്കുന്ന എഐ ചിത്രങ്ങള്‍, സെലിബ്രിറ്റി പോളറോയിഡുകള്‍ തുടങ്ങിയവയാണ് ഇപ്പോള്‍ സോഷ്യല്‍ മീഡിയ ഭരിക്കുന്നത്. എല്ലാവരും ഇപ്പോള്‍ എഐയ്‌ക്ക് പിന്നാലെയാണ്.

ഇത്തരത്തില്‍ ഫോട്ടോ നിര്‍മിക്കാന്‍ എല്ലാവരും വ്യക്തിപരമായ ചിത്രങ്ങള്‍ എഐ ടൂളുകള്‍ക്ക് നല്‍കുകയാണ് ചെയ്യുന്നത്. ശേഷം അവയെല്ലാം മനോഹരവും ക്രിയാത്മകവുമായ ഫോട്ടോകളാക്കി എഐ തിരികെ നല്‍കും. എന്നാല്‍ ഇത്തരത്തില്‍ ഫോട്ടോകള്‍ നല്‍കുന്നത് സ്വകാര്യത ലംഘനം മുതല്‍ സാമൂഹിക വിഷയങ്ങള്‍ വരെയുള്ള ഗുരുതര അപകട സാധ്യതകള്‍ക്ക് ഇടയാക്കുവെന്നാണ് റിപ്പോര്‍ട്ടുകള്‍ സൂചിപ്പിക്കുന്നത്.

അതുകൊണ്ട് തന്നെ ഇത്തരത്തില്‍ എഐയ്‌ക്ക് ഫോട്ടോകള്‍ നല്‍കുമ്പോള്‍ ജാഗ്രത പാലിക്കേണ്ടതുണ്ട്. മാത്രമല്ല ഇതുകാരണം ഉണ്ടായേക്കാവുന്ന അപകട സാധ്യതകള്‍ മനസിലാക്കുകയും ചെയ്യേണ്ടത് അത്യാവശ്യമാണ്.

ഡീപ്‌ഫേക്ക് ഭീഷണി: ജനങ്ങള്‍ അപ്‌ലോഡ്‌ ചെയ്യുന്ന ഫോട്ടോ കൊണ്ട് ഡീപ്‌ഫേക്കുകള്‍ നിര്‍മിക്കാന്‍ എഐയ്‌ക്ക് സാധിക്കും. ഇത് വ്യക്തി വിവരങ്ങളെടുക്കുന്നത് മുതല്‍ അപകീര്‍ത്തി വരെയുള്ള ഗുരുതര പ്രശ്‌നങ്ങള്‍ക്ക് കാരണമായേക്കാം. ജെമിനി, നാനോ ബനാന എന്നിവ ഉപയോഗിച്ച് എഐ ചിത്രങ്ങള്‍ നിര്‍മിക്കുമ്പോള്‍ ഇത്തരത്തിലുള്ള അപകട സാധ്യതയുണ്ട്. ഇത് ഏറെ ആശങ്കജനകമാണ്.

രൂപത്തിന്മേലുള്ള നിയന്ത്രണം ഇല്ലാതാകുന്നു: എഐയിലേക്ക് ഫോട്ടോകള്‍ നല്‍കുമ്പോള്‍ അവ അതെല്ലാം എങ്ങനെ ഉപയോഗിക്കുന്നുവെന്ന കാര്യം അപ്‌ലോഡ്‌ ചെയ്യുന്നവര്‍ക്ക് അറിവില്ലാത്ത കാര്യമാണ്. ലൊക്കേഷന്‍ വിവരങ്ങള്‍, വ്യക്തിഗത വിവരങ്ങള്‍, സാമൂഹിക ബന്ധങ്ങള്‍ തുടങ്ങിയ കാര്യങ്ങളെ കുറിച്ചുള്ള വിവരങ്ങള്‍ ഇതില്‍ നിന്നും വേര്‍തിരിച്ചെടുക്കാന്‍ എഐയ്‌ക്ക് കഴിയും.ഡിജിറ്റലൈസ് ചെയ്‌ത് കഴിഞ്ഞാല്‍ ഈ ചിത്രത്തില്‍ എന്ത് മാറ്റങ്ങള്‍ വരുത്താനും എഐയ്‌ക്ക് സാധിക്കുമെന്ന് പ്രമുഖ വാര്‍ത്താ ചാനല്‍ റിപ്പോര്‍ട്ട് ചെയ്‌തു.

യാഥാര്‍ഥ്യം തിരിച്ചറിയാനാകാതെ വരും: എഐ നിര്‍മിത ചിത്രങ്ങള്‍ കൂടുതല്‍ വ്യാപകമാകുന്നത് വലിയ വെല്ലുവിളികളാകുന്നുണ്ട്. കാരണം യഥാര്‍ഥ ഫോട്ടോകളും വ്യാജ ഫോട്ടോകളും തിരിച്ചറിയാന്‍ സാധിക്കാത്ത അവസ്ഥ വരും. മാധ്യമ പ്രവര്‍ത്തന രംഗത്തും വിവിധ പരസ്യങ്ങളിലും മറ്റ് വ്യവസായങ്ങളിലും ഇത് കാര്യമായ പ്രത്യാഘാതങ്ങള്‍ സൃഷ്‌ടിക്കും.

ചിത്രം വാണിജ്യപരമായി ഉപയോഗിച്ചേക്കാം: നമ്മള്‍ അപ്‌ലോഡ് ചെയ്യുന്ന ചിത്രങ്ങള്‍ നമ്മുടെ അറിവില്ലാതെ വാണിജ്യപരമായ ആവശ്യങ്ങള്‍ക്ക് എഐ ഉപയോഗപ്പെടുത്തിയേക്കാം. മറ്റ് എഐ മോഡലുകള്‍ക്കായി പരസ്യങ്ങള്‍ ഉണ്ടാക്കുന്നതിനോ പരിശീലന ഡാറ്റാസെറ്റുകള്‍ തയ്യാറാക്കുന്നതിനോ ഇത് ഉപയോഗിക്കപ്പെടും.

ബയോമെട്രിക് ഡാറ്റയുടെ ദുരുപയോഗം: എഐ പ്ലാറ്റ്‌ഫോമുകളിലേക്ക് ഫോട്ടോ അപ്‌ലോഡ് ചെയ്യുമ്പോള്‍ അതിലൂടെ നമ്മുടെ ബയോമെട്രിക് ഡാറ്റ സംഭരിക്കാന്‍ സാധിക്കും. കമ്പനികള്‍ ഈ വിവരങ്ങള്‍ ശേഖരിക്കും. ഇവ ആവശ്യമെങ്കില്‍ മറ്റുള്ളവരുമായി പങ്കിടാനും വില്‍പ്പന നടത്താനും സാധിക്കും.

നേരത്തെ മുന്നറിയിപ്പുമായി ഐപിഎസ് ഓഫിസര്‍: എഐയിലേക്കുള്ള അപ്‌ലോഡുകളെ കുറിച്ച് പലതരത്തിലുള്ള റിപ്പോര്‍ട്ടുകളാണ് ദിനംപ്രതി പുറത്ത് വന്ന് കൊണ്ടിരിക്കുന്നത്. എന്നാല്‍ വിഷയത്തില്‍ നേരത്തെ തന്നെ മുന്നറിയിപ്പ് നല്‍കിയ ഒരാളുണ്ട്. ഐപിഎസ് ഓഫിസറായ വിസി സജ്ജനാര്‍. വ്യക്തിഗത വിവരങ്ങളും ഫോട്ടോകളുമെല്ലാം അപ്‌ലോഡ് ചെയ്യുമ്പോള്‍ അത് വിവിധ തട്ടിപ്പുകള്‍ക്ക് കാരണമാകുമെന്നാണ് അദ്ദേഹം പറയുന്നത്. വ്യാജ വെബ്‌സൈറ്റുകളോ അനധികൃത ആപ്പുകളോ ഉപയോഗിച്ച് ഫോട്ടോകളോ വ്യക്തിഗത വിവരങ്ങളോ ഒരിക്കലും പങ്കിടരുതെന്ന് അദ്ദേഹം ഉപയോക്താക്കളോട് അഭ്യർഥിച്ചു. ഇത്തരത്തിലുള്ള പ്രവര്‍ത്തികള്‍ ചിലപ്പോള്‍ ഒറ്റ ക്ലിക്കില്‍ നിങ്ങള്‍ക്ക് പണം നഷ്‌ടമാക്കിയേക്കാം. സോഷ്യൽ മീഡിയ ട്രെൻഡുകളിൽ സന്തോഷകരമായ നിമിഷങ്ങൾ പങ്കിടാൻ കഴിയുമെങ്കിലും സുരക്ഷയ്‌ക്കാണ് കൂടുതല്‍ മുന്‍ഗണന നല്‍കേണ്ടതെന്നും വിസി സജ്ജനാര്‍ വ്യക്തമാക്കി. എക്‌സിലാണ് ഇതുസംബന്ധിച്ചുള്ള വിവരം അദ്ദേഹം പോസ്റ്റ് ചെയ്‌തത്.

LEAVE A REPLY

Please enter your comment!
Please enter your name here