Hugging Face запустила сервис для упрощенного запуска ИИ-моделей в облаке
Популярная платформа для разработки искусственного интеллекта Hugging Face объявила о запуске нового сервиса Inference Providers. Этот инструмент создан для того, чтобы разработчики могли легко запускать ИИ-модели, используя инфраструктуру сторонних облачных провайдеров. Среди ключевых партнеров проекта выступают такие компании, как SambaNova, Fal, Replicate и Together AI.
Партнеры Hugging Face провели интеграцию своих дата-центров с платформой, что позволяет разработчикам в несколько кликов запускать различные модели, например DeepSeek, на серверах SambaNova прямо со страницы проекта Hugging Face. Это существенно упрощает процесс развертывания ИИ-решений.
Несмотря на наличие собственного решения для запуска ИИ-моделей, компания решила сосредоточиться на развитии возможностей для совместной работы, хранения и распространения моделей. По мнению Hugging Face, сейчас самое подходящее время для предоставления unified доступа к бессерверному выводу через набор надежных провайдеров.
Бессерверный вывод позволяет разработчикам развертывать и масштабировать ИИ-модели без необходимости настройки базового оборудования. Провайдеры автоматически запускают необходимые вычислительные ресурсы и регулируют их в зависимости от использования.
Разработчики, использующие сторонние облачные сервисы через платформу Hugging Face, будут оплачивать стандартные тарифы API провайдеров. Все пользователи получают небольшую квоту кредитов для вывода, а подписчики премиум-версии Hugging Face Pro дополнительно получают кредиты на $2 в месяц.
Основанная в 2016 году как стартап по разработке чатботов, Hugging Face стала одной из крупнейших платформ для хостинга и разработки ИИ-моделей в мире. Компания привлекла около $400 млн инвестиций от таких гигантов, как Salesforce, Google, Amazon и Nvidia, и заявляет о своей прибыльности, сообщает TechCrunch.