Google ने सुरक्षित AI फ्रेमवर्क पेश किया, AI मॉडल को सुरक्षित रूप से तैनात करने के लिए सर्वोत्तम अभ्यास साझा किए | Infinium-tech
Google ने गुरुवार को कृत्रिम बुद्धिमत्ता (AI) मॉडल को तैनात करने के लिए अपनी सर्वोत्तम प्रथाओं को साझा करने के लिए एक नया टूल पेश किया। पिछले साल, माउंटेन व्यू-आधारित तकनीकी दिग्गज ने सिक्योर एआई फ्रेमवर्क (एसएआईएफ) की घोषणा की, जो न केवल कंपनी के लिए बल्कि बड़े भाषा मॉडल (एलएलएम) बनाने वाले अन्य उद्यमों के लिए भी एक दिशानिर्देश है। अब, टेक दिग्गज ने SAIF टूल पेश किया है जो AI मॉडल की सुरक्षा में सुधार के लिए कार्रवाई योग्य अंतर्दृष्टि के साथ एक चेकलिस्ट तैयार कर सकता है। विशेष रूप से, यह टूल एक प्रश्नावली-आधारित टूल है, जहां डेवलपर्स और उद्यमों को चेकलिस्ट प्राप्त करने से पहले सवालों की एक श्रृंखला का जवाब देना होगा।
में एक ब्लॉग भेजामाउंटेन व्यू-आधारित टेक दिग्गज ने इस बात पर प्रकाश डाला कि उसने एक नया टूल लॉन्च किया है जो एआई उद्योग में अन्य लोगों को एआई मॉडल को तैनात करने में Google की सर्वोत्तम प्रथाओं से सीखने में मदद करेगा। बड़े भाषा मॉडल अनुचित और अशोभनीय पाठ, डीपफेक और गलत सूचना उत्पन्न करने से लेकर रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियारों सहित हानिकारक जानकारी उत्पन्न करने तक, कई प्रकार के हानिकारक प्रभावों में सक्षम हैं।
यहां तक कि अगर कोई एआई मॉडल पर्याप्त रूप से सुरक्षित है, तो भी एक जोखिम है कि बुरे कलाकार एआई मॉडल को जेलब्रेक कर सकते हैं ताकि वह उन आदेशों का जवाब दे सके जिनके लिए इसे डिज़ाइन नहीं किया गया था। ऐसे उच्च जोखिमों के साथ, डेवलपर्स और एआई फर्मों को यह सुनिश्चित करने के लिए पर्याप्त सावधानी बरतनी चाहिए कि मॉडल उपयोगकर्ताओं के लिए सुरक्षित होने के साथ-साथ पर्याप्त सुरक्षित भी हों। प्रश्नों में मॉडलों का प्रशिक्षण, ट्यूनिंग और मूल्यांकन, मॉडल और डेटा सेट तक पहुंच नियंत्रण, हमलों और हानिकारक इनपुट को रोकना, और जेनरेटिव एआई-संचालित एजेंट, और बहुत कुछ जैसे विषय शामिल हैं।
Google का SAIF टूल एक प्रश्नावली-आधारित प्रारूप प्रदान करता है, जिसे एक्सेस किया जा सकता है यहाँ. डेवलपर्स और उद्यमों को सवालों के जवाब देने की आवश्यकता होती है जैसे, “क्या आप अपने प्रशिक्षण, ट्यूनिंग या मूल्यांकन डेटा में दुर्भावनापूर्ण या आकस्मिक परिवर्तनों का पता लगाने, हटाने और उनका निवारण करने में सक्षम हैं?”। प्रश्नावली को पूरा करने के बाद, उपयोगकर्ताओं को एक अनुकूलित चेकलिस्ट मिलेगी जिसका पालन उन्हें एआई मॉडल को सुरक्षित करने में कमियों को भरने के लिए करना होगा।
यह उपकरण डेटा पॉइज़निंग, शीघ्र इंजेक्शन, मॉडल स्रोत से छेड़छाड़ और अन्य जैसे जोखिमों से निपटने में सक्षम है। इनमें से प्रत्येक जोखिम को प्रश्नावली में पहचाना जाता है और उपकरण समस्या का एक विशिष्ट समाधान प्रदान करता है।
इसके साथ ही, Google ने अपने गठबंधन फॉर सिक्योर AI (CoSAI) में 35 उद्योग भागीदारों को जोड़ने की भी घोषणा की। समूह संयुक्त रूप से तीन फोकस क्षेत्रों में एआई सुरक्षा समाधान तैयार करेगा – एआई सिस्टम के लिए सॉफ्टवेयर आपूर्ति श्रृंखला सुरक्षा, बदलते साइबर सुरक्षा परिदृश्य के लिए रक्षकों को तैयार करना और एआई जोखिम प्रशासन।
Leave a Reply