Компания Google представила данные об использовании собственных чипов Tensor Processing Unit (TPU) для обучения моделей искусственного интеллекта. Компания обеспечивает до 90% от всех работ по обучению моделей на этих процессорах. Google создала суперкомпьютерную систему, объединяющую в одном решении 4 000 таких процессоров. Сообщается, что за счет использования оптических переключателей собственной разработки Google удалось значительно повысить эффективность использования системы. Крупнейшая в мире общедоступная языковая модель PaLM обучалась на двух суперкомпьютерах с 4 000 процессоров в течение 50 дней. Компания заявляет, что используемый ею суперкомпьютер в 1.7 раза более производительный и в 1.9 раза более энергоэффективный в сравнении с аналогичным решением на базе процессора Nvidia A100 при одинаковом количестве установленных процессоров. Компания пока не сравнивала свое решение с новейшим чипом Nvidia H100, но сообщила, что уже работает над следующим поколением своего чипа.
