متخصصان آلمانی یک مدل هوش مصنوعی (AI) ایجاد کردهاند که به تشخیص دقیق احساسات انسان از طریق صدا آموزش داده شده است. تحقیقات مربوطه در مجله Frontiers in Psychology منتشر شده است. محققان دریافتند که ضبط سخنرانی یک مدل 1.5 ثانیه طول می کشد تا حالت آن مشخص شود. هانس دیمرلینگ، نویسنده این مطالعه، میگوید این مدلها به دقتی شبیه انسان دست یافتند. این مدل با استفاده از شبکه های عصبی، صدا را تجزیه و تحلیل کرد و خلق و خوی فرد مورد نظر را تعیین کرد. با استفاده از شبکههای عصبی عمیق (DNN)، فرکانس و زیر و بم را تجزیه و تحلیل کرد و با استفاده از شبکههای عصبی کانولوشنال (CNN)، مدل یاد گرفت که احساسات را از طریق ریتم و بافت صدا تعیین کند. در نهایت، یک مدل ترکیبی (C-DNN) امکان ایجاد یک طیفنگار بصری برای پیشبینی احساسات را فراهم کرد. به گفته دیمرلینگ، در پایان، مدل به طور دقیق خلق و خوی طرف مقابل را تعیین می کند. این محقق خاطرنشان کرد: اگر این مدلها از انسانها بهتر عمل میکردند، میتواند به این معنی باشد که ممکن است الگوهایی وجود داشته باشد که ما آنها را تشخیص نمیدهیم.