Наиболее широко распространенный набор из восьми стандартных тестов для систем искусственного интеллекта опубликовал свой новейший рейтинг в среду, а производитель графических процессоров Nvidia охватил все категории коммерчески доступных систем со своими новыми компьютерами на базе графического процессора A100 , побив 16 рекордов. Однако в некоторых из них он был единственным участником.

Рейтинг составлен MLPerf ,   консорциумом, в состав которого входят как гиганты искусственного интеллекта, такие как Facebook, Tencent и Google, так и такие стартапы, как Cerebras, Mythic и Sambanova. Тесты MLPerf измеряют время, необходимое компьютеру для обучения определенного набора нейронных сетей с согласованной точностью. По данным MLPerf, со времени предыдущего раунда результатов, опубликованного в июле 2019 года, самые быстрые системы улучшились в среднем в 2,7 раза.

«MLPerf был создан, чтобы помочь отрасли отделить факты от вымысла в области искусственного интеллекта, — говорит Пареш Харья, старший директор по управлению продуктами для вычислительных центров обработки данных в Nvidia. Тем не менее, большинство членов консорциума не представили результаты обучения. Alibaba, Dell, Fujitsu, Google и Tencent были единственными, кто конкурировал в коммерческих или облачных категориях. У Intel было несколько предложений для систем, которые должны выйти на рынок в течение следующих шести месяцев. В этом, третьем раунде результатов обучения MLPerf, консорциум добавил два новых теста и существенно переработал третий, в общей сложности восемь тестов. Два новых теста называются BERT и DLRM.

BERT, для представления двунаправленного кодировщика от Transformers, широко используется в задачах обработки естественного языка, таких как перевод, поиск, понимание и генерация текста, а также ответы на вопросы. Обучается с помощью Википедии. 0,81 минуты Nvidia показала самое быстрое время обучения среди коммерчески доступных систем для этого теста, но внутренняя система или система R&D Google превзошли его с 0,39 минуты обучения. DLRM, для модели рекомендаций глубокого обучения, представляет рекомендательные системы, используемые в онлайн-покупках, результатах поиска и ранжировании контента в социальных сетях. Он обучен с использованием набора журналов кликов размером в терабайт, предоставленного Criteo AI Lab. Этот набор данных содержит журналы кликов четырех миллиардов пользователей и взаимодействий с элементами за 24-дневный период. Хотя Nvidia была единственной среди коммерчески доступных участников DLRM с 3,3-минутным тренировочным прогоном, внутренняя система Google выиграла эту категорию с 1,2-минутным усилием.

Помимо добавления DLRM и BERT, MLPerf повысил уровень сложности теста Mini-Go. Mini-Go использует форму искусственного интеллекта, называемую обучением с подкреплением , чтобы научиться играть в го на полноразмерной доске 19 x 19. В предыдущих версиях использовались доски меньшего размера. «Это самый сложный тест, — говорит Харя. Mini-Go должен одновременно играть в игру Go , обрабатывать данные из игры и обучать сеть на этих данных. «Обучение с подкреплением сложно, потому что оно не использует существующий набор данных», — говорит он. «В основном вы создаете набор данных по мере продвижения». По словам Джона Альбена, вице-президента Nvidia по разработке графических процессоров, RL приобретает все большее значение в робототехнике, поскольку позволяет роботам изучать новые задачи без риска причинения вреда людям или имуществу.

Единственными другими конкурентами Nvidia на Mini-Go были еще некоммерческая система от Intel, которая заняла 409 минут, и внутренняя система Google, которая заняла чуть менее 160 минут.

Nvidia протестировала все свои тесты с помощью суперкомпьютера Selene , созданного на основе компьютерной архитектуры компании DGX SuperPOD . Система занимает 7- е место в списке суперкомпьютеров Top500 и является вторым по мощности промышленным суперкомпьютером на планете.