செயற்கை நுண்ணறிவு (AI) என்பது நமது அன்றாட வாழ்வின் ஒரு பகுதியாக மாறிவிட்டது, அதைத் தவிர்ப்பது கடினம் – நாம் அதை அடையாளம் காணாவிட்டாலும் கூட. போது ChatGPT மற்றும் சமூக ஊடகங்களில் அல்காரிதம்களின் பயன்பாடு அதிக கவனத்தைப் பெறுகிறது, AI தாக்கத்தை ஏற்படுத்தும் என்று உறுதியளிக்கும் முக்கியமான பகுதி சட்டம்.
சட்ட நடவடிக்கைகளில் AI குற்றத்தை தீர்மானிக்கும் யோசனை வெகு தொலைவில் இருப்பதாகத் தோன்றலாம், ஆனால் நாம் இப்போது தீவிரமாகக் கருத்தில் கொள்ள வேண்டிய ஒன்றாகும்.
ஏனென்றால், நியாயமான சோதனைகளை நடத்துவதில் AI இன் இணக்கத்தன்மை குறித்த கேள்விகளை இது எழுப்புகிறது. குற்றவியல் சட்டத்தில் AI எவ்வாறு பயன்படுத்தப்படலாம் மற்றும் பயன்படுத்தக்கூடாது என்பதை நிர்வகிக்கும் வகையில் EU சட்டத்தை இயற்றியுள்ளது.
வட அமெரிக்காவில், நியாயமான சோதனைகளை ஆதரிக்க வடிவமைக்கப்பட்ட அல்காரிதம்கள் ஏற்கனவே பயன்பாட்டில் உள்ளன. காம்பஸ், பொது பாதுகாப்பு மதிப்பீடு (PSA) மற்றும் சோதனைக்கு முந்தைய இடர் மதிப்பீட்டு கருவி (PTRA) ஆகியவை இதில் அடங்கும். நவம்பர் 2022 இல், ஹவுஸ் ஆஃப் லார்ட்ஸ் UK குற்றவியல் நீதி அமைப்பில் AI தொழில்நுட்பங்களைப் பயன்படுத்துவதைக் கருத்தில் கொண்ட ஒரு அறிக்கையை வெளியிட்டது.
ஆதரவான வழிமுறைகள் ஒருபுறம், நீதிமன்றச் சேவைகளில் செலவுகளைக் குறைத்தல் அல்லது சிறு குற்றங்களுக்கு நீதித்துறை நடவடிக்கைகளைக் கையாளுதல் போன்ற நீண்ட காலத்திற்கு AI எவ்வாறு நீதியை கணிசமாக எளிதாக்குகிறது என்பதைப் பார்ப்பது கவர்ச்சிகரமானதாக இருக்கும். AI அமைப்புகள் மனித உளவியலின் வழக்கமான தவறுகளைத் தவிர்க்கலாம் மற்றும் கடுமையான கட்டுப்பாடுகளுக்கு உட்படுத்தப்படலாம். சிலருக்கு, அவர்கள் மனித நீதிபதிகளை விட பாரபட்சமற்றவர்களாகவும் இருக்கலாம்.
மேலும், வழக்குச் சட்டத்தில் முன்னோடிகளை அடையாளம் காணவும், நீதித்துறை நடைமுறைகளை ஒழுங்குபடுத்தும் வழிகளைக் கொண்டு வரவும், நீதிபதிகளை ஆதரிக்கவும் வழக்கறிஞர்களுக்கு உதவ வழிமுறைகள் தரவை உருவாக்கலாம்.
மறுபுறம், அல்காரிதம்களில் இருந்து திரும்பத் திரும்பத் திரும்பத் திரும்ப வரும் தானியங்கு முடிவுகள் சட்டத்தின் விளக்கத்தில் படைப்பாற்றல் குறைபாட்டிற்கு வழிவகுக்கலாம், இது சட்ட அமைப்பில் மந்தநிலை அல்லது வளர்ச்சியை நிறுத்தலாம்.
சோதனையில் பயன்படுத்த வடிவமைக்கப்பட்ட AI கருவிகள் பல ஐரோப்பிய சட்டக் கருவிகளுடன் இணங்க வேண்டும், அவை மனித உரிமைகள் மரியாதைக்கான தரங்களை அமைக்கின்றன. நீதியின் செயல்திறனுக்கான நடைமுறை ஐரோப்பிய ஆணையம், நீதித்துறை அமைப்புகள் மற்றும் அவற்றின் சுற்றுச்சூழலில் செயற்கை நுண்ணறிவைப் பயன்படுத்துவதற்கான ஐரோப்பிய நெறிமுறை சாசனம் (2018), மற்றும் கடந்த ஆண்டுகளில் இயற்றப்பட்ட பிற சட்டங்கள் ஆகியவை அடங்கும். குற்றவியல் நீதித்துறையில் AI. இருப்பினும், மனித நீதிபதிகள் மற்றும் குழுக்கள் போன்ற மேற்பார்வைக்கான திறமையான வழிமுறைகளும் நமக்குத் தேவை.
AI ஐக் கட்டுப்படுத்துவதும் நிர்வகிப்பதும் சவாலானது மற்றும் தரவுப் பாதுகாப்புச் சட்டம், நுகர்வோர் பாதுகாப்புச் சட்டம் மற்றும் போட்டிச் சட்டம் போன்ற பல்வேறு சட்டத் துறைகளையும், தொழிலாளர் சட்டம் போன்ற பல களங்களையும் உள்ளடக்கியது. எடுத்துக்காட்டாக, இயந்திரங்களால் எடுக்கப்படும் முடிவுகள் GDPR, பொதுத் தரவுப் பாதுகாப்பு ஒழுங்குமுறை, நேர்மை மற்றும் பொறுப்புக்கூறலுக்கான அடிப்படைத் தேவைகள் உட்பட நேரடியாக உட்பட்டவை.
மனிதத் தலையீடு இல்லாமல், மக்கள் தன்னியக்க முடிவுகளுக்கு மட்டுமே உட்படுத்தப்படுவதைத் தடுக்க GDPR இல் விதிகள் உள்ளன. சட்டத்தின் மற்ற பகுதிகளில் இந்த கொள்கை பற்றி விவாதம் உள்ளது.
பிரச்சினை ஏற்கனவே எங்களிடம் உள்ளது: அமெரிக்காவில், “ஆபத்து-மதிப்பீடு” கருவிகள், ஒரு பிரதிவாதி ஜாமீனில் விடுவிக்கப்பட வேண்டுமா அல்லது விசாரணை நிலுவையில் வைக்கப்பட வேண்டுமா என்பதைத் தீர்மானிக்கும் சோதனைக்கு முந்தைய மதிப்பீடுகளுக்கு உதவப் பயன்படுத்தப்படுகின்றன.
ஒரு உதாரணம் அமெரிக்காவில் உள்ள காம்பஸ் அல்காரிதம் ஆகும், இது மறுபரிசீலனையின் அபாயத்தைக் கணக்கிட வடிவமைக்கப்பட்டுள்ளது – தண்டனைக்கு பிறகும் குற்றங்களைத் தொடரும் அபாயம். எவ்வாறாயினும், காம்பாஸின் அல்காரிதம் தற்செயலாக இனரீதியான சார்புகளைக் கொண்டிருந்தது என்ற குற்றச்சாட்டுகள் உள்ளன – அதன் பின்னால் உள்ள நிறுவனத்தால் கடுமையாக மறுக்கப்பட்டன.
2017 ஆம் ஆண்டில், விஸ்கான்சினைச் சேர்ந்த ஒருவருக்கு அவரது காம்பாஸ் மதிப்பெண்ணை அடிப்படையாகக் கொண்ட ஒரு தீர்ப்பில் ஆறு ஆண்டுகள் சிறைத்தண்டனை விதிக்கப்பட்டது. Compas ஐ வைத்திருக்கும் தனியார் நிறுவனம் அதன் வழிமுறையை வர்த்தக ரகசியமாக கருதுகிறது. எனவே பயன்படுத்தப்படும் கணித சூத்திரத்தை ஆராய நீதிமன்றங்களோ அல்லது பிரதிவாதிகளோ அனுமதிக்கப்படுவதில்லை.
சமூக மாற்றங்களை நோக்கியா? சட்டம் மனித அறிவியலாகக் கருதப்படுவதால், AI கருவிகள் நீதிபதிகள் மற்றும் சட்டப் பயிற்சியாளர்களை மாற்றுவதற்குப் பதிலாக உதவுவது பொருத்தமானது. நவீன ஜனநாயக நாடுகளைப் போலவே, நீதியும் அதிகாரங்களைப் பிரிப்பதைப் பின்பற்றுகிறது. சட்டத்தை உருவாக்கும் சட்டமன்றம் மற்றும் நீதித்துறை, சட்டத்தை நடைமுறைப்படுத்தும் நீதிமன்ற அமைப்பு போன்ற அரசு நிறுவனங்கள் தெளிவாகப் பிரிக்கப்பட்ட கொள்கை இதுதான். இது சிவில் உரிமைகளைப் பாதுகாக்கவும் கொடுங்கோன்மைக்கு எதிராகவும் வடிவமைக்கப்பட்டுள்ளது.
சோதனை முடிவுகளுக்கு AI ஐப் பயன்படுத்துவது மனித சட்டங்கள் மற்றும் முடிவெடுக்கும் செயல்முறையை சவால் செய்வதன் மூலம் சட்டமன்றத்திற்கும் நீதித்துறைக்கும் இடையிலான அதிகார சமநிலையை அசைக்கக்கூடும். இதன் விளைவாக, AI எங்கள் மதிப்புகளில் மாற்றத்திற்கு வழிவகுக்கும்.
மனித செயல்களை பகுப்பாய்வு செய்யவும், முன்னறிவிக்கவும் மற்றும் செல்வாக்கு செலுத்தவும் அனைத்து வகையான தனிப்பட்ட தரவுகளும் பயன்படுத்தப்படலாம் என்பதால், AI இன் பயன்பாடு தவறான மற்றும் சரியான நடத்தை என்று கருதப்படுவதை மறுவரையறை செய்ய முடியும் – ஒருவேளை எந்த நுணுக்கமும் இல்லாமல்.
AI எவ்வாறு கூட்டு நுண்ணறிவாக மாறும் என்பதை கற்பனை செய்வதும் எளிது. ரோபாட்டிக்ஸ் துறையில் கூட்டு AI அமைதியாக தோன்றியுள்ளது. உதாரணமாக, ட்ரோன்கள் உருவாக்கத்தில் பறக்க ஒருவருக்கொருவர் தொடர்பு கொள்ள முடியும். எதிர்காலத்தில், அனைத்து வகையான பணிகளையும் நிறைவேற்றுவதற்கு அதிகமான இயந்திரங்கள் ஒருவருக்கொருவர் தொடர்புகொள்வதை நாம் கற்பனை செய்யலாம்.
நீதியின் பாரபட்சமற்ற தன்மைக்கான ஒரு வழிமுறையை உருவாக்குவது, மனித நீதிபதியை விட ஒரு வழிமுறையை அதிக திறன் கொண்டதாகக் கருதுகிறோம் என்பதைக் குறிக்கலாம். இந்த கருவியை நம் சொந்த வாழ்க்கையின் தலைவிதியுடன் நம்புவதற்கு கூட நாம் தயாராக இருக்கலாம். ஐசக் அசிமோவ் எழுதிய The Robot Cycle என்ற அறிவியல் புனைகதை நாவல் தொடரில் சித்தரிக்கப்பட்டதைப் போன்ற சமூகமாக நாம் ஒரு நாள் உருவாகலாம், அங்கு ரோபோக்கள் மனிதர்களைப் போலவே புத்திசாலித்தனத்தையும் சமூகத்தின் பல்வேறு அம்சங்களையும் கட்டுப்படுத்துகின்றன.
புதிய தொழில்நுட்பத்திற்கு முக்கிய முடிவுகள் ஒப்படைக்கப்படும் உலகம் பலருக்கு பயத்தை ஏற்படுத்துகிறது, ஒருவேளை அது நம்மை மனிதனாக ஆக்குவதை அது அழிக்கக்கூடும் என்று அவர்கள் கவலைப்படுவதால் இருக்கலாம். ஆயினும்கூட, அதே நேரத்தில், AI என்பது நமது அன்றாட வாழ்க்கையை எளிதாக்குவதற்கான சக்திவாய்ந்த சாத்தியமான கருவியாகும்.
மனித பகுத்தறிவில், புத்திசாலித்தனம் முழுமை நிலை அல்லது தவறான தர்க்கத்தை பிரதிநிதித்துவப்படுத்துவதில்லை. உதாரணமாக, மனித நடத்தையில் பிழைகள் முக்கிய பங்கு வகிக்கின்றன. நாம் செய்வதை மேம்படுத்த உதவும் உறுதியான தீர்வுகளை நோக்கி அவை நம்மை பரிணமிக்க அனுமதிக்கின்றன. நமது அன்றாட வாழ்வில் AI இன் பயன்பாட்டை நீட்டிக்க விரும்பினால், அதை நிர்வகிக்க மனித பகுத்தறிவைத் தொடர்ந்து பயன்படுத்துவது புத்திசாலித்தனமாக இருக்கும்.
Source link
www.gadgets360.com