آیا گوگل از ایمیل‌های کاربران جیمیل برای آموزش هوش مصنوعی استفاده می‌کند؟

موج جدیدی از نگرانی‌ها پیرامون حریم خصوصی جیمیل در شبکه‌های اجتماعی به راه افتاده است. این جنجال پس از آن آغاز شد که پست‌های وایرال شده‌ای ادعا کردند گوگل مخفیانه در حال استخراج داده‌های کاربران از سرویس جیمیل برای آموزش مدل‌های هوش مصنوعی خود است. زنگ خطر اصلی با انتشار مقاله‌ای در بلاگ «ملوربایتس» (Malwarebytes) به صدا درآمد که مدعی بود گوگل سیاست‌های حریم خصوصی خود را تغییر داده تا بتواند از محتوای ایمیل‌ها و فایل‌های ضمیمه کاربران برای آموزش مدل هوش مصنوعی «جمنای» (Gemini) استفاده کند.

پاسخ گوگل: این ادعاها گمراه کننده است

گوگل به سرعت این ادعاها را رد کرده و آن‌ها را کاملاً اشتباه خوانده است. «جنی تامسون» (Jenny Thomson)، سخنگوی گوگل، در مصاحبه با وب‌سایت The Verge اعلام کرد:

این گزارش‌ها گمراه کننده هستند. ما تنظیمات هیچ‌کس را تغییر نداده‌ایم. ویژگی‌های هوشمند جیمیل سال‌هاست که وجود دارند و ما از محتوای جیمیل شما برای آموزش مدل هوش مصنوعی جمنای استفاده نمی‌کنیم.

با این حال، این پاسخ نتوانست جلوی گسترش نگرانی‌ها را بگیرد. کاربران با به اشتراک گذاشتن اسکرین‌شات‌هایی نشان دادند که «ویژگی‌های هوشمند» (Smart Features)، مانند متن پیش‌بینی کننده و یکپارچه‌سازی با تقویم، به صورت پیش‌فرض برایشان فعال است. برخی حتی گزارش دادند که این ویژگی‌ها پس از غیرفعال کردن، دوباره خودبه‌خود فعال شده‌اند که این موضوع به شایعات بیشتر دامن زده است.

ریشه سردرگمی: تفاوت شخصی‌سازی و آموزش هوش مصنوعی

این سردرگمی از نحوه عملکرد واقعی ویژگی‌های هوشمند جیمیل نشأت می‌گیرد. ابزارهایی مانند «نوشتن هوشمند» (Smart Compose)، ردیابی پرواز و دسته‌بندی خودکار ایمیل‌ها، برای شخصی‌سازی تجربه کاربری شما به تحلیل داده‌های موجود در حساب شخصی‌تان متکی هستند و نه برای آموزش مدل‌های هوش مصنوعی جهانی.

جیمیل

فعال کردن این گزینه‌ها به این معناست که گوگل از محتوای جیمیل و «ورک‌اسپیس» (Workspace) شما برای بهبود تجربه کاربری‌تان در سایر اپلیکیشن‌های خود استفاده می‌کند. اما به گفته گوگل، این فرآیند کاملاً از روند آموزش جمنای مجزاست. در واقع، شخصی‌سازی برای یک کاربر خاص با آموزش یک مدل هوش مصنوعی برای استفاده عمومی دو مقوله کاملاً متفاوت هستند.

آینده حریم خصوصی جیمیل و اعتماد عمومی

این جنجال در زمان حساسی برای گوگل رخ داده است، زیرا این شرکت در حال تبلیغ «جمنای 3» (Gemini 3)، قدرتمندترین مدل هوش مصنوعی خود تا به امروز، است. هم‌زمان با افزایش نفوذ این ابزارها در خدمات روزمره، اعتماد عمومی شکننده‌تر از همیشه به نظر می‌رسد. در همین راستا، یک دادخواست گروهی در اوایل ماه جاری میلادی علیه گوگل تنظیم شده که این شرکت را به عبور از خطوط قرمز و دادن دسترسی به جمنای برای تحلیل محتوای جیمیل (Gmail)، چت (Chat) و میت (Meet) متهم می‌کند؛ اتهامی که گوگل آن را قویاً رد کرده است.

در واکنش به این نگرانی‌ها، گوگل در یک پست وبلاگی در تاریخ 23 مه 2024 (3 خرداد 1403) تأکید کرد که از داده‌های کاربران در Workspace (شامل جیمیل) برای آموزش مدل‌های هوش مصنوعی عمومی خود استفاده نمی‌کند، مگر اینکه کاربر به طور مشخص و مستقیم با یک قابلیت هوش مصنوعی در آن سرویس تعامل کند (مثلاً از جمنای بخواهد ایمیلی را خلاصه کند) که در این صورت نیز داده‌ها با رعایت حریم خصوصی و به صورت ناشناس‌سازی شده به کار می‌روند. این شفاف‌سازی نشان می‌دهد که حفظ حریم خصوصی جیمیل به یکی از بزرگ‌ترین دغدغه‌های کاربران و چالش‌های گوگل تبدیل شده است.

نوشته های مشابه

دکمه بازگشت به بالا