Google ने सुरक्षित AI फ्रेमवर्क पेश किया, AI मॉडल को सुरक्षित रूप से तैनात करने के लिए सर्वोत्तम अभ्यास साझा किए | Infinium-tech

Google ने सुरक्षित AI फ्रेमवर्क पेश किया, AI मॉडल को सुरक्षित रूप से तैनात करने के लिए सर्वोत्तम अभ्यास साझा किए | Infinium-tech

Google ने गुरुवार को कृत्रिम बुद्धिमत्ता (AI) मॉडल को तैनात करने के लिए अपनी सर्वोत्तम प्रथाओं को साझा करने के लिए एक नया टूल पेश किया। पिछले साल, माउंटेन व्यू-आधारित तकनीकी दिग्गज ने सिक्योर एआई फ्रेमवर्क (एसएआईएफ) की घोषणा की, जो न केवल कंपनी के लिए बल्कि बड़े भाषा मॉडल (एलएलएम) बनाने वाले अन्य उद्यमों के लिए भी एक दिशानिर्देश है। अब, टेक दिग्गज ने SAIF टूल पेश किया है जो AI मॉडल की सुरक्षा में सुधार के लिए कार्रवाई योग्य अंतर्दृष्टि के साथ एक चेकलिस्ट तैयार कर सकता है। विशेष रूप से, यह टूल एक प्रश्नावली-आधारित टूल है, जहां डेवलपर्स और उद्यमों को चेकलिस्ट प्राप्त करने से पहले सवालों की एक श्रृंखला का जवाब देना होगा।

में एक ब्लॉग भेजामाउंटेन व्यू-आधारित टेक दिग्गज ने इस बात पर प्रकाश डाला कि उसने एक नया टूल लॉन्च किया है जो एआई उद्योग में अन्य लोगों को एआई मॉडल को तैनात करने में Google की सर्वोत्तम प्रथाओं से सीखने में मदद करेगा। बड़े भाषा मॉडल अनुचित और अशोभनीय पाठ, डीपफेक और गलत सूचना उत्पन्न करने से लेकर रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (सीबीआरएन) हथियारों सहित हानिकारक जानकारी उत्पन्न करने तक, कई प्रकार के हानिकारक प्रभावों में सक्षम हैं।

यहां तक ​​कि अगर कोई एआई मॉडल पर्याप्त रूप से सुरक्षित है, तो भी एक जोखिम है कि बुरे कलाकार एआई मॉडल को जेलब्रेक कर सकते हैं ताकि वह उन आदेशों का जवाब दे सके जिनके लिए इसे डिज़ाइन नहीं किया गया था। ऐसे उच्च जोखिमों के साथ, डेवलपर्स और एआई फर्मों को यह सुनिश्चित करने के लिए पर्याप्त सावधानी बरतनी चाहिए कि मॉडल उपयोगकर्ताओं के लिए सुरक्षित होने के साथ-साथ पर्याप्त सुरक्षित भी हों। प्रश्नों में मॉडलों का प्रशिक्षण, ट्यूनिंग और मूल्यांकन, मॉडल और डेटा सेट तक पहुंच नियंत्रण, हमलों और हानिकारक इनपुट को रोकना, और जेनरेटिव एआई-संचालित एजेंट, और बहुत कुछ जैसे विषय शामिल हैं।

Google का SAIF टूल एक प्रश्नावली-आधारित प्रारूप प्रदान करता है, जिसे एक्सेस किया जा सकता है यहाँ. डेवलपर्स और उद्यमों को सवालों के जवाब देने की आवश्यकता होती है जैसे, “क्या आप अपने प्रशिक्षण, ट्यूनिंग या मूल्यांकन डेटा में दुर्भावनापूर्ण या आकस्मिक परिवर्तनों का पता लगाने, हटाने और उनका निवारण करने में सक्षम हैं?”। प्रश्नावली को पूरा करने के बाद, उपयोगकर्ताओं को एक अनुकूलित चेकलिस्ट मिलेगी जिसका पालन उन्हें एआई मॉडल को सुरक्षित करने में कमियों को भरने के लिए करना होगा।

यह उपकरण डेटा पॉइज़निंग, शीघ्र इंजेक्शन, मॉडल स्रोत से छेड़छाड़ और अन्य जैसे जोखिमों से निपटने में सक्षम है। इनमें से प्रत्येक जोखिम को प्रश्नावली में पहचाना जाता है और उपकरण समस्या का एक विशिष्ट समाधान प्रदान करता है।

इसके साथ ही, Google ने अपने गठबंधन फॉर सिक्योर AI (CoSAI) में 35 उद्योग भागीदारों को जोड़ने की भी घोषणा की। समूह संयुक्त रूप से तीन फोकस क्षेत्रों में एआई सुरक्षा समाधान तैयार करेगा – एआई सिस्टम के लिए सॉफ्टवेयर आपूर्ति श्रृंखला सुरक्षा, बदलते साइबर सुरक्षा परिदृश्य के लिए रक्षकों को तैयार करना और एआई जोखिम प्रशासन।

Credits : gadgets360

Share this post

Leave a Reply

Your email address will not be published. Required fields are marked *