Нейросеть научили играть в футбол
Одна из самых известных дочерних компаний Google, лондонская Deepmind, которая занимается разработками в сфере AI, научила нейросеть играть в командную игру - футбол.
Речь идет о таких навыках, как отбор, пас, а также умении управлять виртуальными игроками таким образом, чтобы действия в точности повторяли такие же в ральной игре в футбол. И самое главное - нейросеть освоила командное взаимодействие игровых агентов. В результате получилась симуляция с, на первый взгляд, немного неуклюжими виртуальными футболистами.
Вот как описали подход к обучению в Deepmind. Сначала нейросети дали полный контроль над виртуальными игроками, включая возможности движений суставов и естественной артикуляции - всего 56 степеней свободы, которые есть у настоящего человека.
AI учился управлять агентами-игроками в смоделированной среде с гравитацией и другими законами физики. Для обучения сеть копировала движения реальных футболистов, захваченные с помощью стандартных методов захвата движения, - бег, изменение направления, удары ногами и т. д. Затем тренировались навыки среднего уровня сложности, такие как ведение мяча, следование за ним и удар по мячу. Наконец, нейросеть практиковалась в командной игре 2 на 2.
Самым важным результатом стало то, что AI обучили различным тактикам игры. Нейросеть смогла играть в команде, успешно преодолевая разрыв между низкоуровневым моторным контролем и скоординированным целенаправленным поведением, говорят разработчики.
В 2013 году компания обучила AI играть в видеоигры, такие как Pong и Breakout.
Далее разработчики создали AlphaGo, которая достигла сверхчеловеческих уровней игры в древнекитайской Го.