TrustFinance भरोसेमंद और सटीक जानकारी है जिस पर आप भरोसा कर सकते हैं। यदि आप वित्तीय व्यापारिक जानकारी की तलाश कर रहे हैं, तो यह आपके लिए सही जगह है। वित्तीय व्यापारिक जानकारी का एक-स्टॉप स्रोत। हमारी प्राथमिकता विश्वसनीयता है।

TrustFinance Global Insights
Mei 06, 2026
3 min read
1

संयुक्त राज्य अमेरिका की सरकार ने उन्नत कृत्रिम बुद्धिमत्ता में जोखिमों का आकलन करने के लिए अपनी पहल का विस्तार किया है, जिसमें Google के डीपमाइंड, xAI और माइक्रोसॉफ्ट को कार्यक्रम में शामिल किया गया है। ये कंपनियाँ OpenAI और एंथ्रोपिक के साथ जुड़ गई हैं, जो पहले से ही अमेरिकी AI मानक और नवाचार केंद्र के साथ मिलकर अप्रकाशित AI मॉडलों में संभावित कमजोरियों का परीक्षण कर रही थीं।
यह कार्यक्रम AI मॉडलों को व्यापक रूप से तैनात करने से पहले प्रदर्शन योग्य जोखिमों की पहचान करने और उन्हें कम करने पर केंद्रित है। सरकारी वैज्ञानिक विशेष रूप से महत्वपूर्ण अमेरिकी बुनियादी ढांचे पर साइबर हमले शुरू करने, रासायनिक या जैविक हथियार विकसित करने, या प्रशिक्षण डेटा को दूषित करने में AI के संभावित दुरुपयोग की जांच कर रहे हैं। भाग लेने वाली कंपनियाँ मालिकाना और अप्रकाशित मॉडलों तक पहुँच प्रदान कर रही हैं, जिससे शोधकर्ताओं को दुर्भावनापूर्ण हमलों का अनुकरण करने और सुरक्षा खामियों को उजागर करने के लिए गहन 'रेड-टीमींग' अभ्यास करने की अनुमति मिलती है।
यह विस्तार तेजी से बढ़ते AI क्षेत्र पर बढ़ते नियामक निरीक्षण का संकेत देता है। माइक्रोसॉफ्ट और अल्फाबेट जैसे तकनीकी दिग्गजों के लिए, अनुपालन और सहयोग सार्वजनिक विश्वास को बढ़ा सकता है, लेकिन सुरक्षा प्रोटोकॉल से जुड़ी नई विकास समय-सीमा और लागतें भी ला सकता है। इन परीक्षणों के निष्कर्ष AI सुरक्षा के लिए नए उद्योग मानक स्थापित कर सकते हैं, जो भविष्य के निवेश और वैश्विक नियामक ढाँचों को प्रभावित करेंगे। प्री-रिलीज़ परीक्षण पर ध्यान केंद्रित करने का उद्देश्य प्रणालीगत जोखिमों को रोकना है, जिससे AI प्रौद्योगिकियों में दीर्घकालिक बाजार विश्वास स्थिर हो सकता है।
अमेरिकी सरकार और प्रमुख AI डेवलपर्स के बीच सहयोग मजबूत सुरक्षा और संरक्षा मानकों को स्थापित करने की दिशा में एक महत्वपूर्ण कदम है। OpenAI और एंथ्रोपिक के साथ पिछले परीक्षणों ने पहले ही महत्वपूर्ण कमजोरियों की पहचान कर ली है और उन्हें ठीक कर दिया है। चल रहे प्रयासों से महत्वपूर्ण क्षेत्रों के लिए औपचारिक दिशानिर्देश बनने की संभावना है, जिससे AI सिस्टम सुरक्षित रहेंगे। बाजार इन परीक्षणों के परिणामों पर बारीकी से नजर रखेंगे, क्योंकि वे AI विनियमन और तैनाती के भविष्य को आकार देंगे।
प्र: अमेरिकी सरकार के AI मॉडल परीक्षणों में कौन सी कंपनियाँ भाग ले रही हैं?
उ: इस कार्यक्रम में अब Google डीपमाइंड, xAI, माइक्रोसॉफ्ट, OpenAI और एंथ्रोपिक शामिल हैं।
प्र: अमेरिकी सरकार किन प्राथमिक जोखिमों पर ध्यान केंद्रित कर रही है?
उ: मुख्य चिंताएँ AI मॉडलों का उपयोग महत्वपूर्ण बुनियादी ढांचे के खिलाफ साइबर हमलों और जैविक या रासायनिक हथियारों के विकास के लिए किए जाने की संभावना है।
स्रोत: Investing.com

TrustFinance Global Insights
AI-assisted editorial team by TrustFinance curating reliable financial and economic news from verified global sources.
संबंधित लेख