Компанія Google на конференції Google I/O представила друге покоління Tensor Processor Unit (TPU) – чіпа власної розробки для систем машинного навчання. Важливою відмінністю другої версії є більше висока продуктивність і додаткові можливості. Суть останніх така – якщо версія першого покоління могла лише робити логічні висновки для отримання результату, наприклад, покладаючись на Google Cloud для обробки даних в реальному часі. В той же час новинка дозволяє серверів Google одночасно і робити логічні висновки, та проводити навчання.

Новинка вже почала впроваджуватися в рамках платформи Google Compute Engine, використовуваної сторонніми компаніями. Як зазначається, кожен окремий блок TPU другого покоління має продуктивність в 180 терафлопс, а інженерам компанії вдалося розмістити в серверній стійці 64 блоку TPU з продуктивністю 11,5 петафлопс. Такий собі суперкомп’ютер компактного розміру. Така стійка називається TPU Pod.

Наголошується, що подібні системи зможуть прискорити навчання штучного інтелекту і будуть більш продуктивні, ніж рішення на базі класичних, хоч і продуктивних GPU.

Справа в тому, що ШІ-системи не програмуються «від» і «до», а навчаються, формуючи власний «досвід». Щоб навчити систему виконувати якесь завдання, спочатку її потрібно надати велику кількість прикладів цієї діяльності. Це дозволить системі навчитися працювати, виходячи з отриманого досвіду». Використовуючи новий Tensor Processor Unit і платформу TensorFlow, вийде скоротити час на відпрацювання алгоритмів штучного інтелекту.

Також зазначимо, що Google запустила програму TensorFlow Research Cloud і обіцяє надати безкоштовний доступ дослідникам до кластеру з 1000 блоків TPU.