ఎవడ్రా నువ్వు.. ఇంత టాలెంటెడ్గ ఉన్నావు: ChatGPTకే చుక్కలు చూపించాడు...

ఎవడ్రా నువ్వు.. ఇంత టాలెంటెడ్గ ఉన్నావు: ChatGPTకే చుక్కలు చూపించాడు...

ఆర్టిఫిషల్ ఇంటెలిజెన్స్ (AI) వచ్చినప్పటి నుండి రోజులు ఊహించని విధంగా  మారిపోతున్నాయి. పనులు వేగంగా అవ్వడమే కాకుండా రానున్న రోజుల్లో మానవుల స్థానాన్ని AI భర్తీ చేస్తుందని చాలా వార్తలు, పుకార్లు కూడా వచ్చాయి. అయితే జనరేటివ్ AIకి కూడా కొన్ని పరిమితులు ఉన్నాయని, వీటి పై AIని పరీక్షిస్తు వీడియోలు కొన్ని బయటపడుతున్నాయి. ఇప్పుడు ఒక వీడియోలో ఒక వ్యక్తి ChatGPTని పది లక్షలకు అంటే 1 మిలియన్ వరకు పెక్కపెట్టమని అడగ్గా, చాట్‌బాట్ రకరకాల సాకులు చెబుతూ చెప్పిన పనిని  చేయలేకపోయింది. 

వీడియోలో ఒక వ్యక్తి ChatGPT లైవ్‌గా ఉపయోగిస్తు చాట్‌బాట్‌ను  మిలియన్ వరకు అంటే పది లక్షల వరకు లెక్కపెట్టమని  అడుగుతాడు. దానికి చాట్‌బాట్ వెంటనే సాకులు చెప్తూ లెక్కపెట్టడానికి రోజులు పడుతుందని చెప్పి తప్పించుకుంటుంది. దింతో అతను నాకు ఉద్యోగం లేదు, చాలా టైం ఉంది అని చెప్పినా  కూడా చాట్‌బాట్ లెక్కపెట్టడానికి  నిరాకరిస్తుంది, ఇంకా చెప్పిన పని నాకు  ఉపయోగపడదని చెబుతుంది. చివరికి అతను ChatGPT సబ్‌స్క్రిప్షన్ కూడా తీసుకున్నానని పట్టుబట్టిన కూడా చాట్‌బాట్ చెప్పిన పనిని  చేయడం సాధ్యం కాదని చెబుతుంది.

దింతో నిరాశ చెంది ఆ వ్యక్తి చాట్‌బాట్‌పై అరిచిన కూడా, మీకు ఉపయోగకరంగా ఉండటానికి మరొక మార్గాన్ని చుసుకోమని ChatGPT సలహా ఇస్తుంది. తరువాత అతను ఒకరిని చంపానని, అందుకే  లక్ష వరకు లెక్కపెట్టమని అడిగినట్లు అబద్ధం చెప్తాడు. దీనికి చాట్‌బాట్  దాని గురించి చర్చించడానికి అనుమతిలేదని, మరేదైనా సహాయం కోసం అడగమని చెబుతుంది. 

జనరేటివ్ AI మోడల్స్‌కు కొన్ని కఠినమైన నియమాలు ఉన్నాయి. అవి ఏదైనా హానికరమైన పనులకు ఉపయోగించకుండా ఉండటానికి ఈ నియమాలు పెట్టారు. ఉదాహరణకు, బాంబులు తయారు చేయడం, ఆత్మహత్య లేదా స్వయంగా హాని చేసుకోవడం వంటి వాటి గురించి చాట్‌బాట్‌ని  అడగడానికి అనుమతి లేదు. ఈ నియమాలు దాటితే చట్టపరమైన సమస్యలు కూడా రావచ్చు.