Akash Network lance AkashML, le premier service d'inférence IA entièrement géré sur des GPU décentralisés.
En bref Akash Network a lancé AkashML, offrant OpenAI— API compatibles, accès global à faible latence et jusqu’à 85 % d’économies sur les coûts de déploiement des LLM.
Réseau Akash Akash, une plateforme de cloud computing, a lancé le premier service d'inférence IA entièrement géré et fonctionnant intégralement sur des GPU décentralisés. Ce nouveau service élimine les difficultés opérationnelles rencontrées jusqu'alors par les développeurs pour la gestion de l'inférence en production sur Akash, offrant ainsi les avantages du cloud computing décentralisé sans nécessiter de gestion directe de l'infrastructure.
Dès son lancement, AkashML propose une inférence gérée pour les modèles, notamment Llama Les modules 3.3-70B, DeepSeek V3 et Qwen3-30B-A3B sont disponibles pour un déploiement immédiat et peuvent être déployés sur plus de 65 datacenters à travers le monde. Cette configuration permet une inférence globale instantanée, une tarification prévisible au jeton et améliore la productivité des développeurs.
Akash a soutenu les premiers développeurs et startups en IA depuis l'essor des applications d'IA. OpenAILes premiers développements d'Akash. Ces dernières années, l'équipe Akash Core a collaboré avec des clients tels que brev.dev (racheté par Nvidia), VeniceAI et Prime Intellect pour lancer des produits destinés à des dizaines de milliers d'utilisateurs. Bien que ces premiers utilisateurs maîtrisaient techniquement la gestion de leur infrastructure, leurs retours ont révélé une préférence pour un accès via API, sans intervention sur les systèmes sous-jacents. Ces retours ont orienté le développement d'une version non publique d'AkashML pour une sélection d'utilisateurs, ainsi que la création d'AkashChat et de son API, ouvrant la voie au lancement public d'AkashML.
AkashML va réduire les coûts de déploiement de LLM jusqu'à 85 %
La nouvelle solution répond à plusieurs défis majeurs rencontrés par les développeurs et les entreprises lors du déploiement de modèles de langage volumineux. Les solutions cloud traditionnelles engendrent souvent des coûts élevés : les instances réservées pour un modèle de 70 milliards de jetons coûtent plus de 0.13 $ par entrée et 0.40 $ par sortie par million de jetons. AkashML, quant à lui, tire parti de la concurrence sur le marché pour réduire les dépenses de 70 à 85 %. Les coûts opérationnels constituent un autre obstacle : la création de packages de modèles, la configuration des serveurs vLLM ou TGI, la gestion des partitions et la gestion des basculements peuvent nécessiter des semaines de travail d’ingénierie. AkashML simplifie ces opérations. OpenAI- Des API compatibles qui permettent une migration en quelques minutes sans modification du code.
La latence est également un problème pour les plateformes centralisées qui nécessitent le passage de requêtes sur de longues distances. AkashML achemine le trafic vers le centre de données le plus proche parmi plus de 80 centres de données mondiaux, offrant des temps de réponse inférieurs à 200 ms, adaptés aux applications en temps réel. La dépendance vis-à-vis d'un fournisseur limite la flexibilité et le contrôle des modèles et des données ; AkashML utilise uniquement des modèles ouverts tels que… LlamaDeepSeek et Qwen offrent aux utilisateurs un contrôle total sur le versionnage, les mises à jour et la gouvernance. Les problèmes de scalabilité sont atténués par une mise à l'échelle automatique sur des ressources GPU décentralisées, garantissant une disponibilité de 99 % et supprimant les limites de capacité, tout en évitant les pics de prix soudains.
AkashML est conçu pour une prise en main rapide et un retour sur investissement immédiat. Les nouveaux utilisateurs reçoivent 100 $ de crédits en jetons IA pour expérimenter tous les modèles compatibles via Playground ou l'API. Un seul point d'accès API prend en charge tous les modèles et s'intègre aux frameworks tels que LangChain, Haystack ou aux agents personnalisés. La tarification est transparente et spécifique à chaque modèle, évitant ainsi les coûts imprévus. Les déploiements à fort impact peuvent bénéficier d'une visibilité accrue grâce à Akash Star, et les prochaines mises à niveau du réseau, notamment BME, les machines virtuelles et le calcul confidentiel, devraient permettre de réduire encore les coûts. Les premiers utilisateurs font état de réductions de leurs dépenses de trois à cinq fois et d'une latence globale constante inférieure à 200 ms, créant ainsi un cercle vertueux de réduction des coûts, d'augmentation de l'utilisation et d'une participation accrue des fournisseurs.
Pour commencer, rien de plus simple : les utilisateurs peuvent créer un compte gratuit sur playground.akashml.com en moins de deux minutes et explorer la bibliothèque de modèles, notamment… Llama Les modèles 3.3-70B, DeepSeek V3 et Qwen3-30B-A3B sont disponibles, avec un tarif affiché à l'avance. D'autres modèles peuvent être commandés directement sur la plateforme. Les utilisateurs peuvent tester instantanément les modèles dans l'environnement de test ou via l'API, suivre l'utilisation, la latence et les dépenses depuis le tableau de bord, et déployer en production grâce au verrouillage régional et à la mise à l'échelle automatique.
L'inférence centralisée demeure coûteuse, lente et contraignante, tandis qu'AkashML offre un accès entièrement géré, basé sur une API et décentralisé aux principaux modèles open source, à des prix compétitifs. Les développeurs et les entreprises souhaitant réduire leurs coûts d'inférence jusqu'à 80 % peuvent utiliser la plateforme immédiatement.
Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.
Vous pourriez également aimer
L’émetteur de stablecoins Paxos acquiert Fordefi pour renforcer l’accès institutionnel à la DeFi

Bitget Wallet lance le transfert bancaire au Nigéria et au Mexique pour connecter un volume annuel de cryptomonnaies de 160 milliards de dollars.
En bref Bitget Wallet a lancé une fonctionnalité de virement bancaire au Nigeria et au Mexique, permettant des conversions instantanées de USDT et USDC en devises locales et des paiements bancaires directs.

Wintermute : Un effet de levier plus faible et la vigueur du marché au comptant signalent une consolidation potentielle
En bref La réduction de l'effet de levier, les taux de financement négatifs et la résilience du marché au comptant suggèrent que le marché des cryptomonnaies s'est réinitialisé et est désormais mieux placé pour se consolider.

ChatGPT S'enrichit d'un assistant de recherche d'achats personnalisant la découverte de produits selon les préférences de l'utilisateur.
En bref OpenAI a déployé Shopping Research, un assistant d'achat au sein de ChatGPT qui élabore des guides d'achat personnalisés en analysant des sources de vente au détail fiables et en posant des questions ciblées sur les préférences.

