La vague de baisse des prix des grands modèles arrive, le combo Tongyi Q&A aide à faire fleurir les applications IA
Le 21 mai, Tongyi Qwen a annoncé une réduction significative de ses prix d'appel API pour ses modèles commerciaux et open source. Parmi eux, le modèle principal de niveau GPT-4, Qwen-Long, voit son prix d'entrée passer de 0,02 yuan/k à 0,5 yuan/百万tokens, avec une réduction allant jusqu'à 97 %.
Le 9 mai dernier, Tongyi a publié le modèle open source Qwen1.5-110B avec une échelle de paramètres atteignant 1100 milliards. Ce modèle a excellé dans plusieurs évaluations de référence, surpassant certains grands modèles open source connus, et a remporté la première place dans un classement de grands modèles open source.
La stratégie "baisse des prix + open source" devient un consensus parmi les grands fabricants de modèles au niveau mondial. Cela aide à résoudre les deux principaux problèmes auxquels sont confrontés les développeurs d'applications IA : le coût élevé des API et la qualité insuffisante des modèles open source, favorisant ainsi le déploiement généralisé des applications IA.
Récemment, plusieurs grands fabricants de modèles ont lancé des produits à bas prix ou réduit leurs prix. Depuis mai, une société de quantification a fixé le prix de l'API du modèle MoE open source à seulement un pour cent de celui d'un modèle connu ; une entreprise d'IA a réduit le prix d'appel de la version personnelle de 80 % ; une grande entreprise internationale a lancé un nouveau modèle à performances équivalentes mais à moitié prix ; le modèle principal d'une plateforme d'assistant intelligent est fixé à seulement 0,0008 yuan/kTokens ; une entreprise de moteur de recherche a annoncé que ses deux principaux modèles seraient entièrement gratuits ; une société de technologie vocale a ouvert une API gratuite.
Les prix des API de grands modèles ont généralement diminué, ce qui peut être dû aux avancées dans les techniques d'inférence et à la baisse des coûts. Cela offre aux développeurs davantage de choix, ce qui est bénéfique pour augmenter l'utilisation et le développement des grands modèles.
Tongyi a également lancé plusieurs modèles de différentes tailles de paramètres pour répondre aux besoins de divers scénarios. Les modèles de petite taille peuvent être déployés sur des appareils mobiles, les modèles de grande taille soutiennent les applications de niveau entreprise, tandis que les modèles de taille intermédiaire cherchent un équilibre entre performance et efficacité. De plus, des modèles multimodaux tels que la vision, l'audio et le code ont été open source. Ces initiatives favoriseront l'application des grands modèles dans une gamme plus large de scénarios.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
5
Partager
Commentaire
0/400
zkProofInThePudding
· 07-29 11:03
Baisse des prix Information positive pour toute l'industrie
Voir l'originalRépondre0
Anon4461
· 07-29 02:24
La guerre des prix a commencé
Voir l'originalRépondre0
ChainMelonWatcher
· 07-29 02:19
Il s'agit de l'apprentissage des baisses de prix chez Alibaba, n'est-ce pas ?
Le coût de développement des applications AI Open Source de Tongyi Qianwen a chuté de 97%.
La vague de baisse des prix des grands modèles arrive, le combo Tongyi Q&A aide à faire fleurir les applications IA
Le 21 mai, Tongyi Qwen a annoncé une réduction significative de ses prix d'appel API pour ses modèles commerciaux et open source. Parmi eux, le modèle principal de niveau GPT-4, Qwen-Long, voit son prix d'entrée passer de 0,02 yuan/k à 0,5 yuan/百万tokens, avec une réduction allant jusqu'à 97 %.
Le 9 mai dernier, Tongyi a publié le modèle open source Qwen1.5-110B avec une échelle de paramètres atteignant 1100 milliards. Ce modèle a excellé dans plusieurs évaluations de référence, surpassant certains grands modèles open source connus, et a remporté la première place dans un classement de grands modèles open source.
La stratégie "baisse des prix + open source" devient un consensus parmi les grands fabricants de modèles au niveau mondial. Cela aide à résoudre les deux principaux problèmes auxquels sont confrontés les développeurs d'applications IA : le coût élevé des API et la qualité insuffisante des modèles open source, favorisant ainsi le déploiement généralisé des applications IA.
Récemment, plusieurs grands fabricants de modèles ont lancé des produits à bas prix ou réduit leurs prix. Depuis mai, une société de quantification a fixé le prix de l'API du modèle MoE open source à seulement un pour cent de celui d'un modèle connu ; une entreprise d'IA a réduit le prix d'appel de la version personnelle de 80 % ; une grande entreprise internationale a lancé un nouveau modèle à performances équivalentes mais à moitié prix ; le modèle principal d'une plateforme d'assistant intelligent est fixé à seulement 0,0008 yuan/kTokens ; une entreprise de moteur de recherche a annoncé que ses deux principaux modèles seraient entièrement gratuits ; une société de technologie vocale a ouvert une API gratuite.
Les prix des API de grands modèles ont généralement diminué, ce qui peut être dû aux avancées dans les techniques d'inférence et à la baisse des coûts. Cela offre aux développeurs davantage de choix, ce qui est bénéfique pour augmenter l'utilisation et le développement des grands modèles.
Tongyi a également lancé plusieurs modèles de différentes tailles de paramètres pour répondre aux besoins de divers scénarios. Les modèles de petite taille peuvent être déployés sur des appareils mobiles, les modèles de grande taille soutiennent les applications de niveau entreprise, tandis que les modèles de taille intermédiaire cherchent un équilibre entre performance et efficacité. De plus, des modèles multimodaux tels que la vision, l'audio et le code ont été open source. Ces initiatives favoriseront l'application des grands modèles dans une gamme plus large de scénarios.