राजेश उपाध्याय। एआइ लोगों के लिए जादुई कलम की तरह काम कर सकती है। यह विचारों को तथ्यों के साथ मिलाकर वांछित जानकारी का रूप दे सकती है। वहीं, गलत सोच के साथ यही एआइ डंक बनकर स्थापित कामकाज और प्रक्रियाओं को बाधित करते हुए गंभीर नुकसान भी पहुंचा सकती है। यह पहलू सरकार और समाज सबके लिए विचारणीय है।
एआई के पितामह कहे जाने वाले गूगल के पूर्व उपाध्यक्ष जैकी हिंटन कहते हैं कि एआई सिस्टम इंसानी मस्तिष्क जितने ताकतवर ही नहीं, बल्कि कई मायनों में उससे ज्यादा शक्तिशाली हैं। ये किसी भी चीज को इंसानों के मुकाबले अत्यंत शीघ्रता से सीख लेते हैं। इसलिए ये इंसानों से आगे भी निकल सकते हैं।
चैटजीपीटी के संस्थापक सैम अल्टमैन भी इससे सहमत लगते हैं। उन्होंने अमेरिकी सीनेट से एआइ कंपनियों को लाइसेंस देने के लिए एक नई एजेंसी बनाने की मांग की है। अल्टमैन का कहना है कि हमें ऐसा सिस्टम बनाना होगा जो एआइ के जोखिमों की पहचान सके अन्यथा यह भूराजनीतिक चुनौतियों को जन्म देगा।
इस बात में संदेह नहीं कि एआइ लगातार हमारे जीवन को बेहतर बना रहा है। यह मैपिंग प्रणाली हो या फिर सर्च इंजन पर मिलने वाले परिणाम यहां तक कि म्यूजिक एप पर मनचाहे गानों की सूची प्राप्त करने में भी एआई का योगदान है। आने के बाद से एआई पर संसद से सड़क तक चर्चा हो रही है। विशेष रूप से इसके नकारात्मक पक्ष को लेकर। सभी शंकाएं गलत हैं और न ही सभी सही।
एआई की सहायता से फर्जी वीडियो/फोटो आवाज बनाई जा रही हैं। कई ऐसे मामले भी सामने आए हैं जहां एआई की सहायता से बनाए गए कानूनी नोटिस और शोध पत्र भी पकड़े गए हैं। एआइ का दुरुपयोग फेक न्यूज फैलाने, दुर्भावनापूर्ण सामग्री बनाने या व्यक्तियों का प्रतिरूपण करने के लिए भी किया जा रहा है।
यही कारण है कि जनरेटिव एआइ को रेगुलेट करने के लिए एक लीगल फ्रेमवर्क बनाने की आवश्यकता है। भारत सरकार ने जीपीएआई (ग्लोबल पार्टनरशिप आन आर्टिफिशियल इंटेलिजेंस) के सदस्य देशों के साथ इस दिशा में काम शुरू करते हुए स्पष्ट किया है कि एआइ में इनोवेशन होना चाहिए, लेकिन निजता और सुरक्षा का ध्यान जरूरी है।
अगर हमें एआइ को सकारात्मक और उत्पादक बनाना है तो उसे नैतिकता से जोड़ना होगा। इसके साथ ही स्पष्ट प्रोटोकाल जिसमें यह बताया जाए कि क्या करना है और क्या नहीं। यूरोपीय संघ के सांसदों ने भी एआई नियमों के मसौदे में बदलाव पर सहमति जताई है, जिसमें बायोमेट्रिक डाटा के चैटजीपीटी द्वारा इस्तेमाल पर प्रतिबंध लगाया गया है। जापान ने भी व्यावसायिक उद्देश्यों के लिए एआइ के उपयोग को रेगुलेट करने की बात कही है।
कैलिफोर्निया यूनिवर्सिटी के कंप्यूटर साइंस के प्रोफेसर स्टुअर्ट रसेल ने अपनी किताब 'आर्टिफिशियल इंटेलिजेंस ए माडनं एप्रोच' में चिंता जताई है कि क्या लार्ज लैंग्वेज माहल (एलएलएम) सुरक्षित है? हमने जागरण डिजिटल न्यूज रूम में विभिन्न एआई टूल्स के साथ काम करते हुए कुछ निष्कर्ष पाए हैं।
पहला, अंग्रेजी में खबरों के संक्षेपीकरण व इंटरनेट मीडिया पोस्ट लिखने के मामले में यह मॉडल प्रभावी है। दूसरा, हिंदी समेत विभिन्न भाषाओं में एक साथ अनुवाद करने और सामग्री निर्माण में सक्षम लेकिन गुणवत्ता व तथ्यपरकता की कसौटी पर पूरी तरह खरा नहीं है। तीसरा, डाटा की सही तरीके से लेबलिंग न करने से इसके पक्षपाती होने की संभावना है। इन कमियों को दूर करने के लिए दुनिया के बड़े मीडिया संस्थानों से अनुबंध करके लार्ज लॅग्वेज माडल को सिखाने का प्रयास हो रहा है।
फिलहाल एआइ के साथ सबसे बड़ी चुनौती डाटा के इस्तेमाल को लेकर है। मॉडल को प्रशिक्षित करने के लिए बड़ी मात्रा में व्यक्तिगत डाटा एकत्रित किया जाता है, लेकिन ऐसा करने का कोई कानूनी आधार नहीं होता। उन लोगों को जानकारी नहीं दी जाती है जिनसे डाटा लिया जाता है। यह निजता के उल्लंघन का मामला हो सकता है।
इस तरह यदि एआइ का सही तरीके से प्रयोग हो, तो यह न्यूज़ रूम के मौजूदा कर्मचारियों की दक्षता बढ़ा सकता है। वे सीमित समय में बेहतर रिसर्च और डाटा प्रस्तुत कर सकते हैं। विभिन्न दृष्टिकोण के साथ जानकारियों को प्रस्तुत किया जा सकेगा, जिसका सीधा फायदा पाठकों को मिलेगा। यह आशंका फिलहाल निराधार है कि एआइ के आने से नौकरियां खत्म हो जाएंगी बल्कि समझदारी भरे उपयोग से हमारे काम को ज्यादा प्रभावशाली और रचनात्मक बना सकता है।
लेखक जागरण न्यू मीडिया के एडिटर इन चीफ हैं।