گوگل TensorFlow Privacy را معرفی کرد؛ کتابخانه‌ای برای یادگیری ماشینی با حفظ حریم شخصی

گوگل کتابخانه‌ی متن‌بازی به‌نام TensorFlow Privacy معرفی کرده است که به منظور بهبود حریم شخصی در سیستم‌های یادگیری ماشینی کاربرد دارد.

گوگل ساعاتی پیش، TensorFlow Privacy را معرفی کرد. این ابزار درواقع کتابخانه‌ای برای فریم‌ورک یادگیری ماشینی این شرکت موسوم به TensorFlow است که آموختن مدل‌های هوش مصنوعی را برای توسعه‌دهندگان آسان‌تر می‌کند و به‌طور همزمان، امنیت حریم شخصی را هم به‌خوبی حفظ می‌کند. گوگل می‌گوید این کتابخانه به‌طور متن‌باز ارائه شده و برای استفاده از آن نیازی به داشتن تجربه در زمینه‌ی امنیت حریم شخصی یا ریاضیات پایه ندارید. افزون‌براین، توسعه‌دهندگان با استفاده از سازوکارهای استاندارد TensorFlow نیازی به تغییر دادن ساختار مدل‌ها، روش‌های آموزشی یا فرآیندهای خود نخواهند داشت. نسخه‌ی ۲.۰ آلفا TensorFlow نیز امروز معرفی شده است.

گوگل در حساب کاربری خود در مدیوم این‌گونه نوشته است:

یادگیری ماشینی پیشرفته به‌طور گسترده‌ای برای ایجاد فناوری‌ها و تجربه‌های کاربری جدید مورد استفاده قرار می‌گیرد و بسیاری از ماشین‌های یادگیری باید از داده‌های حساس برای رسیدن به این هدف بهره ببرند؛ به‌عنوان مثال از تصاویر شخصی یا محتویات یک ایمیل. ما سعی داریم تا با TensorFlow Privicay بهترین تکنیک‌های آموزشِ مدل‌های ماشینی را با حداکثر تضمین رعایت حریم شخصی ارائه دهیم.

بنا به ادعای گوگل، کتابخانه‌ی مذکور براساس اصل تفاوت‌های حریم خصوصی عمل می‌کند؛ تکنیکی آماری که هدف آن افزایش حداکثری دقت در هنگام ایجاد تعادل در اطلاعات کاربران است. به‌منظور ایجاد اطمینان در این زمینه، کتابخانه‌ی TensorFlow Privacy مدل‌ها را با استفاده از یک شیب تصادفی نزولی ویرایش می‌کند که درواقع روشی مشابه با روش‌های بهینه‌سازی توابع هدف در سیستم‌های هوش مصنوعی است. در این روش میانگین چند به‌روزرسانی درکنار هم به مثال‌های یادگیری داد‌ها القاء می‌شود.

گوگل می‌گوید کتابخانه‌ی مذکور می‌تواند از نگه‌داری جزئیات مهم جلوگیری به‌عمل آورد و این تضمین را به‌وجود خواهد آورد که دو مدل یادگیری ماشینی غیرقابل تشخیص بوده یا از داده‌های شخصی کاربران در یادگیری آن‌ها استفاده نشده است.

گوگل در بخش دیگری از پست خود نوشته است:

به‌طور ایده‌آل پارامترهایی که به مدل‌های یادگیری ماشینی آموخته شده است باید به‌جای برخی از مثال‌های آموزشی خاص، الگوهای عمومی را رمزنگاری کند. این مورد به‌خصوص برای یادگیری عمیق بیشتر حائز اهمیت است و تضمین اضافه می‌تواند محافظت ارائه‌شده در سایر تکنیک‌های حریم شخصی را به‌طور مؤثر بهبود بخشد.

پس از اینکه شرکت اینتل HE-Transformer را به‌صورت متن‌باز ارائه کرد، حالا نوبت به گوگل رسیده تا کتابخانه‌ی TensorFlow Privacy در دسترس کاربران قرار دهد. HE-Transformer ابزاری برای حفظ حریم شخصی بوده و امکان انجام عملیات روی داده‌ها حساس در سیستم‌های هوش مصنوعی فراهم می‌کند،. این ابزار یک پایه‌ اصلی برای کامپایلر عصبی اینتل موسوم به nGraph محسوب می‌شود و براساس کتابخانه‌ی رمزنگاری ساده‌ی ریاضیاتی مایکروسافت (SEAL) ایجاد شده است.

نظر شما در این مورد چیست؟ 

منبع venturebeat

از سراسر وب

  دیدگاه
کاراکتر باقی مانده
تبلیغات

بیشتر بخوانید