В DeepMind научили играть в футбол цифровых гуманоидов
В DeepMind, подразделении искусственного интеллекта Google, обучили цифровых гуманоидов с искусственным интеллектом играть в футбол «двое на двое». Целью было улучшить координацию между системами ИИ и предложить новые пути к созданию общего искусственного интеллекта (AGI), сравнимого по уровню с человеческим.
Исследователи сообщили в своем блоге, что интеллектуальные агенты приобрели в симуляции ряд навыков, включая быстрое передвижение и разделение труда, о чем свидетельствует статистические данные. Цифровые модели людей даже способны к долгосрочному принятию решений, предполагающему предвидение поведения товарищей по команде, что приводит к скоординированной игре.
Виртуальные игроки научились бороться за мяч, отбивать его и выполнять передачи, а также блокировать своих противников. В отдельных симуляциях гуманоиды натренировались делать сложные броски руками и ловить мяч.
Специфические футбольные навыки ИИ приобрел благодаря методу обучения с подкреплением. Это значит, что система обучается самостоятельно, взаимодействуя с окружающей средой. Если она совершает правильные действия, которые приводят к улучшению результата (например, к голу), то ее вознаграждают.
Эксперимент DeepMind подробно описан в исследовании под названием «От управления двигателем к командной игре в симуляции гуманоидного футбола». Оно опубликовано в журнале Science Robotics.
Напомним, недавно ФИФА объявила, что искусственный интеллект будет определять офсайд на ЧМ по футболу в Катаре