सेफ सुपरइंटेलिजेंस ने जुटाया 1 बिलियन डॉलर
ओपन ए आई के सह-संस्थापक इल्या सुत्सकेवर ने सेफ सुपरइंटेलिजेंस (एसएसआई) नामक एक नई एआई कंपनी शुरू की है, जिसने कृत्रिम बुद्धिमत्ता प्रणाली विकसित करने के लिए 1 बिलियन डॉलर जुटाए हैं जो मानव क्षमताओं को पार कर सकती हैं लेकिन सुरक्षा पर ध्यान केंद्रित करेगी।
कंपनी पालो ऑल्टो और तेल अवीव में स्थित है और वर्तमान में एक छोटी, अत्यधिक विश्वसनीय टीम को रोजगार दे रही है। एसएसआई कंप्यूटिंग शक्ति हासिल करने और ए आई सुरक्षा सुनिश्चित करने के लिए शीर्ष प्रतिभाओं को नियुक्त करने के लिए धन का उपयोग करेगी, जिसका उद्देश्य एआई को मानवता को नुकसान पहुंचाने से रोकना है। डैनियल ग्रॉस और डैनियल लेवी सहित स्टार्टअप के संस्थापकों का लक्ष्य मानवीय मूल्यों के साथ ए आई विकास को संरेखित करने के लिए कड़े सुरक्षा उपायों को बनाए रखते हुए सुपरइंटेलिजेंट ए आई बनाना है।
यह बड़ी फंडिंग अन्य एआई कंपनियों द्वारा सामना किए जाने वाले जोखिमों और चुनौतियों के बावजूद एआई की क्षमता में निवेशकों की रुचि को दर्शाती है। नेतृत्व संघर्ष के बाद ओपन ए आई छोड़ने वाले सुत्सकेवर का मानना है कि एस एस आई अपने पिछले काम की तुलना में ए आई स्केलिंग को अलग तरीके से अपनाएगी। एसएसआई अपने बुनियादी ढांचे का समर्थन करने के लिए क्लाउड प्रदाताओं और चिप कंपनियों के साथ काम करने की योजना बना रही है। कंपनी अखंडता की संस्कृति का निर्माण करने और अद्वितीय ए आई दृष्टिकोणों पर ध्यान केंद्रित करने को प्राथमिकता देती है, न कि केवल मौजूदा मॉडलों को बढ़ाने पर, जो इसे अन्य ए आई अनुसंधान पहलों से अलग करता है।
भविष्य में पूरी दुनिया की प्रणाली AI के नियंत्रण में आने की आशंकाएँ, इसकी क्षमताओं और संभावित जोखिमों के बारे में कई चिंताओं से उपजी हैं।
जिस गति से AI सिस्टम का विकास हो रहा है, वह जल्द ही स्वायत्त निर्णय लेना शुरू कर सकता है। AI सिस्टम मानवीय हस्तक्षेप के बिना निर्णय ले सकते हैं, जिससे अनपेक्षित परिणाम हो सकते हैं। उदाहरण के लिए, यदि AI हमारे मूल्यों के साथ गलत तरीके से जुड़ा हुआ है, तो यह मानवीय हितों के विरुद्ध कार्य कर सकता है, जिससे सामाजिक व्यवधान उत्पन्न हो सकता है।
यह जल्द ही सुपरइंटेलिजेंस बन कर मानव के नियंत्रण से बाहर चला जा सकता है। यह डर कि AI मानवीय बुद्धिमत्ता को पार कर सकता है और ऊर्जा, स्वास्थ्य सेवा, वित्त या यहाँ तक कि सैन्य अवसंरचना जैसी महत्वपूर्ण प्रणालियों को नियंत्रित कर सकता है। इससे समाज के महत्वपूर्ण क्षेत्रों पर AI का शासन हो सकता है, जिसके संभावित विनाशकारी परिणाम हो सकते हैं।
नौकरी विस्थापन: AI के माध्यम से व्यापक स्वचालन से बड़े पैमाने पर बेरोजगारी हो सकती है, जिसमें मशीनें उन भूमिकाओं को संभाल सकती हैं, जिन्हें पहले मनुष्य निभाते थे, जिससे आर्थिक स्थिरता को खतरा हो सकता है।
नैतिक नियंत्रणों की कमी की संभावना भी है। AI का उपयोग निगरानी, पूर्वाग्रह प्रवर्धन या युद्ध के लिए अनैतिक रूप से किया जा सकता है। उदाहरण के लिए, स्वायत्त हथियार, मानवीय नियंत्रण के बिना जीवन और मृत्यु के बारे में निर्णय ले सकते हैं, जिससे वैश्विक सुरक्षा के लिए खतरा पैदा हो सकता है।
इसी लिए सभ्यता की सुरक्षा के लिए उठाए जा रहे कदम बहुत महत्वपूर्ण है।
AI सुरक्षा पर अनुसंधान – OpenAI और DeepMind जैसे संगठन यह सुनिश्चित करने के लिए अनुसंधान कर रहे हैं कि AI सिस्टम मानवीय मूल्यों के अनुरूप हों। इसमें ऐसे ढांचे विकसित करना शामिल है जो यह सुनिश्चित करते हैं कि AI नैतिक दिशा-निर्देशों के तहत काम करे और हानिकारक परिणामों को रोके।
विनियमन और कानून- दुनिया भर की सरकारें AI विकास और उपयोग के बारे में विनियमों पर चर्चा और कार्यान्वयन कर रही हैं। उदाहरण के लिए, यूरोपीय संघ का प्रस्तावित AI अधिनियम उच्च जोखिम वाली AI प्रणालियों को उनके दुरुपयोग को रोकने के लिए विनियमित करना चाहता है। इसी तरह, कैलिफ़ोर्निया AI कंपनियों पर सुरक्षा नियम लागू करने के लिए विधेयकों पर विचार कर रहा है।
नैतिक AI दिशानिर्देश – Google और Microsoft जैसी कंपनियों ने AI विकास के लिए नैतिक सिद्धांत प्रकाशित किए हैं, जो समाज को AI से लाभ सुनिश्चित करने के लिए निष्पक्षता, पारदर्शिता और जवाबदेही पर ध्यान केंद्रित करते हैं।
सार्वजनिक और अंतर्राष्ट्रीय सहयोग – AI सुरक्षा पर चर्चा करने के लिए सम्मेलन, मंच और संगठन बनाए जा रहे हैं। उदाहरण के लिए, AI पर भागीदारी सर्वोत्तम प्रथाओं पर आम सहमति बनाने के लिए AI डेवलपर्स, नीति निर्माताओं और नागरिक समाज को एक साथ लाती है।
ए आई की व्याख्या पर ध्यान दें- ए आई के जोखिमों को कम करने के लिए, ए आई सिस्टम को मनुष्यों द्वारा अधिक समझने योग्य और व्याख्या करने योग्य बनाने पर ध्यान केंद्रित किया जा रहा है, यह सुनिश्चित करते हुए कि उनके कार्य पारदर्शी और जवाबदेह हैं।
कुल मिलाकर, लक्ष्य यह सुनिश्चित करके एआई को स्वतंत्रता पर अंकुश लगाने या खतरा बनने से रोकना है कि यह सकारात्मक सामाजिक परिणामों के लिए एक उपकरण बना रहे। इन तमाम चिंताओं पर कार्य करने के लिए भारी निवेश की जरूरत है। इल्या सुत्सकेवर की कंपनी इस संबंध में कार्य करेगी, यह उन्होंने पहले ही घोषित किया है।
Share this content:
Post Comment