گوگل اعلام کرده است که در هفتههای آینده برخی بهروزرسانیها را برای مدل هوش مصنوعیاش موسوم به MUM ارائه خواهد کرد که سبب میشود این الگوریتم طیف گستردهتری از جستوجوهای بحران شخصی در مورد تجاوز جنسی، سوءمصرف مواد، خشونت خانگی و خودکشی را شناسایی کند. غول موتور جستوجو جهان میگوید افراد به روشهای مختلفی در مورد موضوعات یادشده اطلاعاتی را جستوجو میکنند و بنابراین، با استفاده از قابلیتهای یادگیری ماشینی MUM، میتواند هدف پشت پرسشها را بهتر درک کند و در زمان مناسب اطلاعات دقیق و مطمئنی را دراختیار کاربران بگذارد.
افزونبراین، گوگل با کمک گرفتن از شرکای محلی قصد دارد در ماههای آینده از هوش مصنوعی برای بهبود نحوه مدیریت جستوجوهای بحران شخصی در کشورهای دیگر استفاده کند. شاید جالب باشد بدانید که MUM میتواند ۷۵ زبان مختلف را درک و مطابق با آن نتایج جستوجو را ارائه دهد. شرکت واقع در مانتینویو همچنین خاطرنشان میکند که این مدل را به روشهای دیگر نظیر بهبود حفاظت از هرزنامه و افزایش اقدامات ایمنی در کشورهایی که دادههای آموزشی زیادی ندارند، به کار خواهد گرفت.
این تنها گوگل نیست که از سیستم هوش مصنوعی برای موارد اینچنینی استفاده میکند. برای مثال، متا (شرکت مادر فیسبوک) در سالهای اخیر از هوش مصنوعی برای مقابله با سخنان نفرتانگیز و اطلاعات نادرست در تمامی پلتفرمهایش نظیر اینستاگرام، فیسبوک و… استفاده کرده است. از قرار معلوم، مدلهای هوش مصنوعی آن نیز میتوانند با تجزیهوتحلیل ویدئوها دانش کسب کنند و از آن اطلاعات در محصولات جدید استفاده کنند.
اپل نیز چندی پیش ویژگیهای جدید ایمنی کودکان را در سه حوزه شامل اسکن تصاویر مبتنی بر آیکلاد کاربران برای شناسایی موارد سوءاستفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آنها در هنگام دریافت یا ارسال عکسهای جنسی واضح و راهنمای CSAM گسترده در دستیار هوشمند سیری و بخش سرچ رونمایی کرد که از قرار معلوم، به محافظت از افراد زیر ۱۷ سال دربرابر مجرمان، متجاوزان و محدود کردن انتشار موارد سوءاستفاده جنسی از کودکان کمک میکند.
البته با وجود نکات مثبت، همیشه استفاده از هوش مصنوعی برای زیر نظر گرفتن کاربران چالش برانگیز بوده و با مخالفت بسیاری از نهادها و کاربران مواجه شده است؛ چراکه نشان میدهد شرکتهای بزرگ به چه اندازه میتوانند اطلاعات، حالات و زندگی ما را زیر نظر بگیرند و از این اطلاعات سوءاستفاده کنند.