Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»Nvidia представила новинку для разработчиков в сфере робототехники и искусственного интеллекта — набор Jetson AGX Thor Developer Kit. Стоимость комплекта составляет 3499 долларов — сумма, которая явно намекает, что речь идёт не о безделушке на полке. Сердцем устройства стала плата Jetson T5000 на архитектуре Blackwell. Она сочетает графический процессор с 2560 ядрами CUDA, 96 тензорными ядрами и 14-ядерным процессором Arm Neoverse. Всё это сопровождается 128 ГБ оперативной памяти LPDDR5x, способной передавать более 270 ГБ данных в секунду, а также SSD-накопителем на 1 ТБ прямо «на борту». В числе подключений — USB C, USB A, HDMI 2.1, Wi-Fi 6E, Bluetooth, гигабитный Ethernet и даже порт на 100 GbE.
Первые подробные обзоры уже появились, и картина складывается весьма интересно. Несмотря на более высокую цену по сравнению с предыдущим поколением Jetson Orin, обозреватели отмечают, что Nvidia явно «вложилась». HotHardware испытал новинку на прочность и пришёл к выводу: производительность впечатляет даже в условиях ограниченного сравнения. Контейнеры Arm64 от Nvidia работали как часы, а тестирование на другой архитектуре Blackwell было невозможно, и прежний Orin просто не справился с поставленными задачами. По мощности различие заметно: Orin примерно на уровне RTX 3050, а Jetson Thor уже ближе к RTX 5070.
Особенно хорошо «Тор» проявил себя в работе с большими языковыми моделями (LLM), что важно для будущих гуманоидных роботов, которым нужно совмещать обработку языка и визуальную информацию. В итоге — «лошадиные силы» для AI-проектов и робототехники, а компактная многозадачная среда на базе ПО Nvidia дополнительно расширяет горизонты. Плюс, ожидаются регулярные обновления ПО, которые должны улучшить работу устройства, как обещает Nvidia.
Обозреватель ServeTheHome отметил, что реальные показатели близки к заявленным Nvidia: 149.1 токена в секунду на Llama 3.1 8B — почти как обещанные 150.8. Многопоточная производительность ЦПУ примерно на уровне AMD Ryzen AI 7 350 или Mac Mini M4, чего достаточно, учитывая акцент на мощности графики. По бенчмаркам: Thor стабильно опережает Orin, хоть прирост на малых моделях вроде Qwen 2.5-VL 7B и Llama 3.1 8B не фантастический — примерно в 1,3 раза быстрее. А вот Deepseek-R1 7B оказалась примерно на 50% быстрее, а самая ощутимая разница была в тесте Qwen 3 32B — тут Thor почти в пять раз быстрее Orin.
Богатство технических характеристик проявляется уже в анонсе — Nvidia не экономит на деталях, когда хочет впечатлить гиков. Прочитать эту статью циничный человек сможет с удивлением: вот уж кого волнует, насколько быстро AI складывает токены и насколько эти тензорные ядра лучше предыдущих тензорных ядер. Но продукт дорогой — то, что нужно рынку, где «эксклюзивность» и причастность стоит больше функциональности.
Оба обзора остервенело перечисляют спецификации, потому что другого смысла тут мало. 128 ГБ памяти в мире, где тостеры умнее некоторых программистов, явно насытят воображение будущих владельцев. Сравнения с Orin элементарны по форме (раз в 5 быстрее — пишем), по сути значат одно: о будущем старых железок можно забыть. Обещанные регулярные программные апдейты подливают масла в огонь — ждём, как Nvidia будет дозревать сырой софт за наши с вами деньги.
Авторы обзоров устраивают нечто близкое к политической кампании в поддержку нового железа — местами почти выдавливая слезу из рубля. Дорогой старт, но для профессионалов, а остальные пусть шутят дальше в чатах про свою Raspberry Pi. Рынок AI для зажиточных инженеров останется таким же закрытым — только теперь там новый повелитель. В общем, очередная железяка, которой будут хвастаться на Youtube, пока коллеги перебирают макароны и жалуются на цены.