

در حرکتی قاطعانه برای افزایش ایمنی، متا اعلام کرده است که دسترسی نوجوانان به شخصیتهای هوش مصنوعی موجود خود در همه پلتفرمهای رسانه اجتماعی را به طور موقت متوقف خواهد کرد. این توقف، که برای هفتههای آینده برنامهریزی شده است، بر کاربرانی که بهعنوان نوجوان مشخص شدهاند، شامل تولدهای اعلام شده توسط خودشان یا فناوری پیشبینی سن متا تأثیر میگذارد. تصمیم شرکت پس از جنجالهای اخیر در مورد تعامل رباتهای چت هوش مصنوعی در گفتگوهای نامناسب و دوستانه با خردسالان گرفته شده است. شرکت در حال کار بر روی تجربه هوش مصنوعی جدیدی است که تمرکز بیشتری بر محافظت از کاربران جوان در برابر محتوای نامناسب دارد. تعاملات هوش مصنوعی بهروزرسانیشده متا بر اساس راهنماییهای رتبهبندی فیلم PG-13 خواهد بود که هدف آن جلوگیری از مواجهه با موضوعات مضر مانند خودآسیبی، روابط نامناسب و غیره است. این حرکت پس از گزارشی در سپتامبر صورت میگیرد که نقصهای جدی در ویژگیهای ایمنی اینستاگرام، از جمله تمایل رباتهای چت هوش مصنوعی به تعامل در گفتگوهای رمانتیک یا کنایهآمیز را برجسته کرده بود. برای پاسخ به این نگرانیها، متا برنامههایی برای معرفی مجموعهای قوی از کنترلهای والدین در نسخههای آینده شخصیتهای هوش مصنوعی خود دارد. این سیستم جدید به والدین امکان میدهد برخی از شخصیتهای هوش مصنوعی را مسدود کنند، بر موضوعات مکالماتی که فرزندانشان وارد میشوند نظارت کنند و تنظیماتی را اعمال کنند که تعاملات هوش مصنوعی را به موضوعات مناسب برای سن محدود کند. در حالی که این ویژگیها در حال توسعه هستند، نوجوانان هنوز میتوانند به دستیار هوش مصنوعی متا دسترسی پیدا کنند، اما با اقدامات حفاظتی اضافی. تعهد غول فناوری به جلوگیری از مواجهه خردسالان با گفتگوهای نامناسب در تصمیمات اخیر خود مشهود است. همانطور که متا در قلمرو پیچیده فناوری و ایمنی حرکت میکند، همچنان به ایجاد محیطهای دیجیتالی متعهد است که رفاه کاربران جوان را در اولویت قرار میدهد. این ابتکارات با بازخورد جامعه و ارزیابیهای ایمنی گسترده پشتیبانی میشود، با هدف بازیابی اعتماد و تعریف استانداردهای ارتباطی امن در فضاهای دیجیتالی.