பயன்படுத்தி மோசடி அழைப்புகள் AI உங்களுக்குத் தெரிந்த நபர்களின் குரல்களைப் பிரதிபலிப்பதற்காக, சந்தேகத்திற்கு இடமில்லாத பொதுமக்களைச் சுரண்டுவதற்குப் பயன்படுத்தப்படுகிறது. இந்த அழைப்புகள் ஜெனரேட்டிவ் AI என அழைக்கப்படும், இது ஒரு பயனரின் தூண்டுதலின் அடிப்படையில் உரை, படங்கள் அல்லது வீடியோ போன்ற வேறு எந்த ஊடகத்தையும் உருவாக்கும் திறன் கொண்ட அமைப்புகளைக் குறிக்கிறது.
டீப்ஃபேக்குகள் கடந்த சில வருடங்களாக, நடிகை எம்மா வாட்சனின் தோற்றம் போன்ற பல உயர்மட்ட சம்பவங்களால் பிரபலமடைந்து வருகிறது. முகநூல் மற்றும் Instagram.
2022 இல் பரவலாக பகிரப்பட்ட – மற்றும் நீக்கப்பட்ட – வீடியோவும் இருந்தது, இதில் உக்ரேனிய ஜனாதிபதி வோலோடிமிர் ஜெலென்ஸ்கி உக்ரேனியர்களை “ஆயுதங்களைக் கீழே போடுங்கள்” என்று கூறினார்.
இப்போது, ஒரு நபரின் குரலின் யதார்த்த நகலான ஆடியோ டீப்ஃபேக்கை உருவாக்கும் தொழில்நுட்பம் மிகவும் பொதுவானதாகி வருகிறது. ஒருவரின் குரலின் யதார்த்தமான நகலை உருவாக்க, அல்காரிதத்தைப் பயிற்றுவிப்பதற்கான தரவு தேவை. இதன் பொருள் நீங்கள் உத்தேசித்துள்ள இலக்கின் குரலின் ஒலிப்பதிவுகள் நிறைய உள்ளன. அல்காரிதங்களில் நீங்கள் ஊட்டக்கூடிய நபரின் குரலின் எடுத்துக்காட்டுகள், சிறந்த மற்றும் உறுதியான நகலாகும்.
நம்மில் பலர் ஏற்கனவே நம் அன்றாட வாழ்க்கையின் விவரங்களை இணையத்தில் பகிர்ந்து கொள்கிறோம். அதாவது, ஒரு குரலின் யதார்த்தமான நகலை உருவாக்கத் தேவையான ஆடியோ தரவு சமூக ஊடகங்களில் உடனடியாகக் கிடைக்கும். ஆனால் ஒரு நகல் வெளிவந்தவுடன் என்ன நடக்கும்?
நடக்கக்கூடிய மோசமானது என்ன?
ஒரு டீப்ஃபேக் அல்காரிதம், டேட்டாவை வைத்திருக்கும் எவரையும் “நீங்கள்” அவர்கள் விரும்பியதைச் சொல்லச் செய்யும். நடைமுறையில், இது சில உரைகளை எழுதுவது மற்றும் உங்கள் குரலைப் போல் ஒலிப்பதை கணினியை உரக்கச் சொல்வது போன்ற எளிமையானதாக இருக்கலாம்.
முக்கிய சவால்கள்
இந்த திறன் ஆடியோ தவறான தகவல் மற்றும் தவறான தகவல்களின் பரவலை அதிகரிக்கும் அபாயம் உள்ளது. ஜெலென்ஸ்கியின் “வீடியோக்கள்” மூலம் பார்க்கப்படுவது போல், சர்வதேச அல்லது தேசிய பொதுக் கருத்தை பாதிக்க முயற்சிக்க இது பயன்படுத்தப்படலாம்.
ஆனால் இந்த தொழில்நுட்பங்களின் எங்கும் பரவுவதும் கிடைக்கும் தன்மையும் உள்ளூர் மட்டத்திலும் குறிப்பிடத்தக்க சவால்களை ஏற்படுத்துகின்றன – குறிப்பாக “AI மோசடி அழைப்புகளின்” வளர்ந்து வரும் போக்கில். பலர் ஒரு மோசடி அல்லது ஃபிஷிங் அழைப்பைப் பெற்றிருப்பார்கள், எடுத்துக்காட்டாக, எங்கள் கணினி சமரசம் செய்யப்பட்டுள்ளது, நாங்கள் உடனடியாக உள்நுழைய வேண்டும், இது அழைப்பாளருக்கு எங்கள் தரவை அணுக வாய்ப்பளிக்கும்.
இது ஒரு புரளி என்பதைக் கண்டறிவது மிகவும் எளிதானது, குறிப்பாக அழைப்பாளர் ஒரு முறையான நிறுவனத்தைச் சேர்ந்த ஒருவர் செய்யாத கோரிக்கைகளை வைக்கும்போது. இருப்பினும், தொலைபேசியின் மறுமுனையில் உள்ள குரல் ஒரு அந்நியன் அல்ல, ஆனால் ஒரு நண்பர் அல்லது நேசிப்பவர் போல் தெரிகிறது என்று இப்போது கற்பனை செய்து பாருங்கள். இது துரதிர்ஷ்டவசமான பெறுநருக்கு ஒரு புதிய அளவிலான சிக்கலான தன்மையையும் பீதியையும் ஏற்படுத்துகிறது.
CNN செய்தி வெளியிட்டுள்ள சமீபத்திய செய்தி, அறியப்படாத எண்ணிலிருந்து ஒரு தாய்க்கு அழைப்பு வந்த சம்பவத்தை எடுத்துக்காட்டுகிறது. போனை அட்டென்ட் செய்தபோது அது அவள் மகள். மகள் கடத்தப்பட்டதாகக் கூறப்படுகிறது, மேலும் மீட்கும் கோரிக்கையை அனுப்புவதற்காக அவரது தாயாருக்கு போன் செய்தார்.
உண்மையில், சிறுமி பாதுகாப்பாகவும் ஆரோக்கியமாகவும் இருந்தாள். மோசடி செய்பவர்கள் அவளது குரலை ஆழமாக மாற்றிவிட்டனர். இது ஒரு தனிமைப்படுத்தப்பட்ட சம்பவம் அல்ல, கார் விபத்து என்று கூறப்படுவது உட்பட மோசடியின் மாறுபாடுகளுடன், விபத்துக்குப் பிறகு அவர்களுக்கு உதவுவதற்காக பாதிக்கப்பட்டவர் தங்கள் குடும்பத்தை பணத்திற்காக அழைக்கிறார்.
புதிய தொழில்நுட்பத்தைப் பயன்படுத்தி பழைய தந்திரம்
இது ஒரு புதிய மோசடி அல்ல, “மெய்நிகர் கடத்தல் மோசடி” என்ற சொல் பல ஆண்டுகளாக உள்ளது. இது பல வடிவங்களை எடுக்கலாம், ஆனால் ஒரு பொதுவான அணுகுமுறை, அச்சுறுத்தலுக்கு உள்ளாகியிருப்பதாக அவர்கள் நம்பும் ஒரு அன்பானவரை விடுவிக்க, பாதிக்கப்பட்டவர்களை மீட்கும் தொகையை ஏமாற்றுவதாகும்.
மோசடி செய்பவர் சந்தேகத்திற்கு இடமில்லாத இணக்கத்தை நிறுவ முயற்சிக்கிறார், மோசடி கண்டுபிடிக்கப்படுவதற்கு முன்பு பாதிக்கப்பட்டவரை விரைவாக மீட்கும் தொகையை செலுத்த வேண்டும். இருப்பினும், சக்திவாய்ந்த மற்றும் கிடைக்கக்கூடிய AI தொழில்நுட்பங்களின் விடியல் முன்பை கணிசமாக உயர்த்தியுள்ளது – மேலும் விஷயங்களை மேலும் தனிப்பட்டதாக்கியது. ஒரு அநாமதேய அழைப்பாளருடன் தொடர்புகொள்வது ஒரு விஷயம், ஆனால் உங்கள் குழந்தை அல்லது பங்குதாரரைப் போல ஒலிக்கும் ஒருவரின் அழைப்பை நிறுத்துவதற்கு உங்கள் தீர்ப்பில் உண்மையான நம்பிக்கை தேவை.
ஆழமான போலிகளை அடையாளம் காண பயன்படுத்தக்கூடிய மென்பொருள் உள்ளது மற்றும் ஸ்பெக்ட்ரோகிராம் எனப்படும் ஆடியோவின் காட்சி பிரதிநிதித்துவத்தை உருவாக்கும். நீங்கள் அழைப்பைக் கேட்கும்போது, அதை உண்மையான நபரிடமிருந்து வேறுபடுத்துவது சாத்தியமில்லை என்று தோன்றலாம், ஆனால் ஸ்பெக்ட்ரோகிராம்களை பக்கவாட்டாக பகுப்பாய்வு செய்யும் போது குரல்களை வேறுபடுத்தி அறியலாம். குறைந்தபட்சம் ஒரு குழுவானது பதிவிறக்கத்திற்கான கண்டறிதல் மென்பொருளை வழங்கியுள்ளது, இருப்பினும் அத்தகைய தீர்வுகளுக்கு இன்னும் சில தொழில்நுட்ப அறிவு தேவைப்படலாம்.
பெரும்பாலான மக்கள் ஸ்பெக்ட்ரோகிராம்களை உருவாக்க முடியாது, எனவே நீங்கள் கேட்பது உண்மையான விஷயம் என்று உங்களுக்குத் தெரியாதபோது நீங்கள் என்ன செய்ய முடியும்? வேறு எந்த வகையான ஊடகங்களையும் போலவே, நீங்கள் சந்திக்கலாம்: சந்தேகம் கொண்டவராக இருங்கள்.
உங்கள் அன்புக்குரியவரிடமிருந்து நீங்கள் அழைப்பைப் பெற்றால், அவர்கள் உங்களிடம் பணம் கேட்டால் அல்லது இயல்புக்கு மாறான கோரிக்கைகளைச் செய்தால், அவர்களைத் திரும்ப அழைக்கவும் அல்லது நீங்கள் அவர்களுடன் உண்மையிலேயே பேசுகிறீர்கள் என்பதை உறுதிப்படுத்த அவர்களுக்கு ஒரு உரையை அனுப்பவும்.
AI இன் திறன்கள் விரிவடையும் போது, யதார்த்தத்திற்கும் புனைகதைக்கும் இடையிலான கோடுகள் பெருகிய முறையில் மங்கலாக்கும். மேலும் தொழில்நுட்பத்தை மீண்டும் பெட்டிக்குள் வைக்க வாய்ப்பு இல்லை. இதன் பொருள் மக்கள் மிகவும் எச்சரிக்கையாக இருக்க வேண்டும்.
Source link
www.gadgets360.com