आत्मपरिचय वा सामान्य लेखन जस्ता कामहरू AIमार्फत छिटो र सहज रूपमा गर्न सकिन्छ। केही सेकेन्डमै व्यवस्थित लेख तयार हुने भएकाले यसलाई प्रयोग नगर्नु समयसँग पछि परेको निर्णय जस्तो देखिन सक्छ। तर जिम्मेवारीसँग जोडिएका सामग्री तयार गर्दा केवल गति होइन, विश्वसनीयता अझ महत्वपूर्ण हुन्छ।
समाचार लेखनमा AI प्रयोग गरेर हेरेपछि मैले एउटा कुरा स्पष्ट रूपमा महसुस गरेँ—AIले कहिलेकाहीँ वास्तविकतामा नभएका तथ्य प्रस्तुत गर्न सक्छ, जसलाई “हल्युसिनेसन” भनिन्छ। बाहिरबाट हेर्दा ती जानकारी विश्वसनीय जस्तै लाग्न सक्छन्, तर गहिरो रूपमा जाँच गर्दा त्रुटि भेटिन सक्छ। स्पष्ट रूपमा गलत तथ्य त सजिलै पहिचान गर्न सकिन्छ, तर आधा–सत्य वा भ्रामक सन्दर्भ भएका वाक्य पत्ता लगाउन समय लाग्छ। त्यसैले AIले छिटो तयार पारेको सामग्री भए पनि अन्तिम जिम्मेवारी भने लेखककै हुन्छ।
मेरो अनुभवमा, प्रत्येक वाक्यको सत्यता जाँच्न समय खर्च गर्नु भन्दा कहिलेकाहीँ आफैं लेख्नु नै प्रभावकारी हुन्छ। विशेष गरी सार्वजनिक रूपमा साझा गरिने जानकारीमा सानो गल्तीले पनि ठूलो भ्रम सिर्जना गर्न सक्छ। त्यसैले म ढिलो भए पनि सावधानीपूर्वक लेख्नुलाई प्राथमिकता दिन्छु।
विगतमा AI का कारण केही गम्भीर घटनाहरू पनि भएका छन्। उदाहरणका रूपमा, एक विश्वविद्यालयका प्राध्यापकबारे AIले झूटो आरोपसहितको जानकारी प्रस्तुत गरेको घटना चर्चामा आएको थियो। त्यस्तै, एक प्रतिष्ठित पत्रिकाले AIबाट प्राप्त पुस्तक सिफारिस सूची सत्यापन नगरी प्रकाशित गर्दा सूचीमा रहेका धेरै पुस्तक नै अस्तित्वमा नभएको तथ्यपछि मात्र खुलासा भयो। यी घटनाहरूले एउटा स्पष्ट सन्देश दिन्छन्—समस्या केवल AIमा होइन, प्रयोगकर्ताको सत्यापन प्रक्रियामा पनि हुन्छ।
अब प्रश्न उठ्छ—AIले यस्तो त्रुटि किन गर्छ? अनुसन्धानहरूका अनुसार AIलाई प्रशिक्षणका क्रममा सही उत्तर दिन प्रोत्साहित गरिन्छ। यस्तो संरचनामा “मलाई थाहा छैन” भन्नु भन्दा अनुमान गरेर उत्तर दिनु प्रणालीका लागि सजिलो हुन्छ। ठीक त्यसरी नै, जसरी विद्यार्थीले नआएको प्रश्नमा अनुमान लगाउँछन्। यही कारणले कहिलेकाहीँ AIले अपूर्ण वा गलत जानकारी प्रस्तुत गर्न सक्छ।
यस अवस्थालाई कम गर्न प्रयोगकर्ताले प्रश्न गर्ने तरिकामा ध्यान दिन आवश्यक छ। उदाहरणका लागि, “निश्चित भए मात्र उत्तर दिनु” वा “विश्वसनीय स्रोत भएमा मात्र जानकारी प्रस्तुत गर्नु” जस्ता निर्देशनले AIलाई थप सावधान बनाउन मद्दत गर्न सक्छ। यद्यपि, यस्तो उपाय अपनाउँदा पनि त्रुटि पूर्ण रूपमा हट्छ भन्ने ग्यारेन्टी हुँदैन।
अन्ततः, AI एक शक्तिशाली सहयोगी उपकरण हो, तर यसको प्रयोगमा विवेक आवश्यक छ। नजान्दा “मलाई थाहा छैन” भन्न सक्ने मानिसलाई जस्तै विश्वास गरिन्छ, त्यस्तै AI बाट प्राप्त जानकारीलाई पनि अन्धविश्वास गर्नु हुँदैन। प्रविधि जति उन्नत हुँदै जान्छ, त्यति नै हाम्रो जिम्मेवारी पनि बढ्दै जान्छ—जानकारी प्रयोग गर्नु अघि त्यसको सत्यता सुनिश्चित गर्नु नै सबैभन्दा सुरक्षित अभ्यास हो।