अपनी मनपसंद भाषा में पढ़ें :
News Samvad : अमेरिका में एक 60 वर्षीय शख्स की जान पर बन आई जब उन्होंने अपनी सेहत को लेकर ChatGPT (AI) से सलाह ली। उन्होंने चैटबॉट से नमक का विकल्प पूछा, जिसके जवाब में सोडियम ब्रोमाइड सुझाया गया। व्यक्ति ने इसे करीब तीन महीने तक नमक की तरह इस्तेमाल किया और नतीजतन उन्हें ब्रोमाइड पॉइजनिंग हो गई।
इससे उनके शरीर में सोडियम का स्तर सामान्य से कई गुना बढ़ गया और उन्हें मतिभ्रम (हैलुसिनेशन), पैरानॉइया और मानसिक समस्याओं का सामना करना पड़ा। डॉक्टरों ने तुरंत इलाज शुरू किया और IV फ्लूइड्स व इलेक्ट्रोलाइट्स की मदद से उन्हें ठीक किया। लगभग तीन हफ्ते बाद उनकी हालत सामान्य हो सकी। यह केस एनल्स ऑफ इंटरनल मेडिसिन क्लिनिकल केसेस नामक जर्नल में प्रकाशित हुआ है।
क्यों न करें AI से इलाज की सलाह पर भरोसा?
ChatGPT जैसे टूल्स सामान्य जानकारी देते हैं, लेकिन ये डॉक्टर नहीं हैं।
यह किसी की पर्सनल मेडिकल हिस्ट्री या सही डायग्नोसिस नहीं जानते।
कई बार ये गलत या अधूरी जानकारी भी दे सकते हैं।
सही जानकारी कहां से लें?
सरकारी संस्थान – WHO, CDC, आयुष मंत्रालय
बड़े अस्पताल और मेडिकल संस्थान
मान्यता प्राप्त मेडिकल जर्नल्स
सीधे डॉक्टर या हेल्थकेयर प्रोफेशनल्स से
विशेषज्ञों की सलाह है कि सेहत से जुड़ा कोई भी कदम केवल डॉक्टर की राय के बाद ही उठाएं। इंटरनेट और AI की जानकारी को सिर्फ रेफरेंस मानें, इलाज का आधार नहीं।
इसे भी पढ़ें : दिशोम गुरु को घोषित किया जाये ‘राज्य पिता’, JMM ने उठाई मांग

