01 Jun 2025, 00:05
Meta впроваджує автоматизацію перевірки ризиків продуктів за допомогою ШІ
- Штучний інтелект у Meta буде відповідати за більшість оцінок ризиків нових функцій.
- Людський контроль залишиться для складних і нових ситуацій.
- Після змін у політиці модерації спостерігається збільшення випадків небажаного контенту.
Про це повідомляють TechCrunch, Engadget.
Meta планує автоматизувати до 90% перевірок потенційних ризиків для оновлень своїх додатків, таких як Instagram і WhatsApp, використовуючи штучний інтелект. Згідно з внутрішніми документами, тепер команди продуктів мають заповнювати спеціальну анкету, після чого система ШІ надає миттєве рішення щодо виявлених ризиків та вимог для впровадження оновлень.
Раніше ці оцінки проводили переважно люди, відповідно до угоди між Facebook (нині Meta) та Федеральною торговою комісією США від 2012 року. Зміни дозволяють пришвидшити процес оновлення продуктів, але деякі колишні співробітники компанії попереджають, що автоматизація може призвести до пропуску серйозних ризиків, які людська команда могла б виявити.
Meta зазначає, що лише рішення з низьким рівнем ризику будуть автоматизовані, а людські експерти продовжать оцінювати нові та складні питання. Останні квартальні звіти компанії також вказують на незначне зростання випадків цькування, насильницького й графічного контенту після змін у політиці модерації.
Теги: Технології/ШІ