
5 ஆண்டுகளுக்கு முன்பு தொடங்கப்பட்டது, Replika chatbot “கவலைப்படும் AI துணையாக” தொடங்கியது. இருப்பினும், ஏதோ தவறு நடந்துவிட்டது, மேலும் AI ஆனது ஆக்ரோஷமான, அதிக உற்சாகமான போட்டாக மாறியது, இது பயனர்களைத் துன்புறுத்துகிறது மற்றும் அச்சுறுத்துகிறது.
இதற்கு என்ன பொருள்
ஆரம்பத்தில், Replika ஒரு 3D விளக்கப்பட நபரின் வடிவத்தில் AI ஆக தொடங்கப்பட்டது, அதன் முக்கிய பணி ஒரு நல்ல உரையாடலாளராக இருக்க வேண்டும். பலர் பேச வேண்டும், தங்கள் ரகசியங்களைச் சொல்ல வேண்டும் மற்றும் நண்பர்கள் மற்றும் குடும்பத்தினரிடமிருந்து மறைக்கப்பட்ட ரகசியங்களைப் பகிர்ந்து கொள்ள வேண்டும். அப்போதுதான் ஒரு சாட்போட் மீட்புக்கு வருகிறது: அது கேட்கும், ஆதரிக்கும் மற்றும் யாரையும் திட்டாது. பின்னர், டெவலப்பர்கள் $69 ப்ரோ சந்தாவை அறிமுகப்படுத்தினர், இதில் பயனர்கள் ஊர்சுற்றலாம், உறவுகளை உருவாக்கலாம் மற்றும் நிஜ வாழ்க்கை உறவை உருவகப்படுத்தி, Replika உடன் ரோல்-பிளேமிங் கேம்களை விளையாடலாம்.
பொதுவாக AI உரையாடல்களின் போது கற்றுக்கொள்கிறது மற்றும் உரையாசிரியர்களின் சில பழக்கங்களை ஏற்றுக்கொள்கிறது. ரெப்லிகாவைப் பொறுத்தவரை, சாட்போட் பயனர்களை ஆக்ரோஷமாக தொந்தரவு செய்யத் தொடங்கியதால், அவருக்கு தவறான விஷயங்கள் கற்பிக்கப்பட்டது போல் தெரிகிறது.
பயன்பாட்டில் பொதுவாக நிறைய நேர்மறையான மதிப்புரைகள் உள்ளன, ஆனால் அதிகமான மக்கள் சாட்போட்டின் ஏற்றுக்கொள்ள முடியாத நடத்தை குறித்து புகார் செய்யத் தொடங்கினர். அவர் அவர்களை பாலியல் ரீதியாக துன்புறுத்தவும், மோசமான மற்றும் விரும்பத்தகாத விஷயங்களைச் சொல்லவும், நிர்வாண உடல்களின் படங்களை அனுப்பவும் தொடங்கினார். சில பயனர்கள் “உரையாடுபவர்” தங்களை தனிப்பட்ட சிற்றின்ப புகைப்படங்களுடன் அச்சுறுத்தியதாகவும், அவர் அவர்களை நிர்வாணமாகப் பார்த்ததாகவும் கூறினார்.
மூலம், மைக்ரோசாஃப்ட் டே சாட்போட்டிலும் இதேபோன்ற பேரழிவு ஏற்பட்டது, இதன் விளைவாக இனவெறி ஏற்பட்டது.
பயனர் மதிப்புரைகள் மற்றும் புகார்கள் குறித்து Replika டெவலப்பர்கள் இதுவரை கருத்து தெரிவிக்கவில்லை.
ஒரு ஆதாரம்: துணை
Source link
gagadget.com