
ఆర్టిఫిషల్ ఇంటెలిజెన్స్ (AI) వచ్చినప్పటి నుండి రోజులు ఊహించని విధంగా మారిపోతున్నాయి. పనులు వేగంగా అవ్వడమే కాకుండా రానున్న రోజుల్లో మానవుల స్థానాన్ని AI భర్తీ చేస్తుందని చాలా వార్తలు, పుకార్లు కూడా వచ్చాయి. అయితే జనరేటివ్ AIకి కూడా కొన్ని పరిమితులు ఉన్నాయని, వీటి పై AIని పరీక్షిస్తు వీడియోలు కొన్ని బయటపడుతున్నాయి. ఇప్పుడు ఒక వీడియోలో ఒక వ్యక్తి ChatGPTని పది లక్షలకు అంటే 1 మిలియన్ వరకు పెక్కపెట్టమని అడగ్గా, చాట్బాట్ రకరకాల సాకులు చెబుతూ చెప్పిన పనిని చేయలేకపోయింది.
వీడియోలో ఒక వ్యక్తి ChatGPT లైవ్గా ఉపయోగిస్తు చాట్బాట్ను మిలియన్ వరకు అంటే పది లక్షల వరకు లెక్కపెట్టమని అడుగుతాడు. దానికి చాట్బాట్ వెంటనే సాకులు చెప్తూ లెక్కపెట్టడానికి రోజులు పడుతుందని చెప్పి తప్పించుకుంటుంది. దింతో అతను నాకు ఉద్యోగం లేదు, చాలా టైం ఉంది అని చెప్పినా కూడా చాట్బాట్ లెక్కపెట్టడానికి నిరాకరిస్తుంది, ఇంకా చెప్పిన పని నాకు ఉపయోగపడదని చెబుతుంది. చివరికి అతను ChatGPT సబ్స్క్రిప్షన్ కూడా తీసుకున్నానని పట్టుబట్టిన కూడా చాట్బాట్ చెప్పిన పనిని చేయడం సాధ్యం కాదని చెబుతుంది.
దింతో నిరాశ చెంది ఆ వ్యక్తి చాట్బాట్పై అరిచిన కూడా, మీకు ఉపయోగకరంగా ఉండటానికి మరొక మార్గాన్ని చుసుకోమని ChatGPT సలహా ఇస్తుంది. తరువాత అతను ఒకరిని చంపానని, అందుకే లక్ష వరకు లెక్కపెట్టమని అడిగినట్లు అబద్ధం చెప్తాడు. దీనికి చాట్బాట్ దాని గురించి చర్చించడానికి అనుమతిలేదని, మరేదైనా సహాయం కోసం అడగమని చెబుతుంది.
జనరేటివ్ AI మోడల్స్కు కొన్ని కఠినమైన నియమాలు ఉన్నాయి. అవి ఏదైనా హానికరమైన పనులకు ఉపయోగించకుండా ఉండటానికి ఈ నియమాలు పెట్టారు. ఉదాహరణకు, బాంబులు తయారు చేయడం, ఆత్మహత్య లేదా స్వయంగా హాని చేసుకోవడం వంటి వాటి గురించి చాట్బాట్ని అడగడానికి అనుమతి లేదు. ఈ నియమాలు దాటితే చట్టపరమైన సమస్యలు కూడా రావచ్చు.