Résultats de la recherche pour "TPU"
00:48
Les données de Jinshi, le 9 juin, selon SemiAnalysis, un blog sur les semi-conducteurs, OpenAI prévoit d'étendre une équipe de puces qui ne compte que quelques personnes à plusieurs dizaines de personnes. Presque tous les chercheurs récemment recrutés sont des membres actuels ou anciens de l'équipe TPU de Google. On dit qu'OpenAI offrira chaque année des millions de dollars d'actions à ces ingénieurs de haut niveau. Les actions mentionnées ici font référence à la structure d'actions de profit interne établie par OpenAI. La première version du TPU a été publiée en 2013, mise en production en 2016, et l'équipe a plus de dix ans d'expérience dans le développement, avec la sortie la plus récente du TPUv6 en mai de cette année. Bien que la TPU ne soit pas aussi polyvalente que le GPU, elle se distingue par ses performances de calcul et son efficacité énergétique.
  • 1
12:42
Le 24 mai, le PDG de Microsoft (MSFT.O), Satya Nadella, a récemment été interviewé par Ben Thompson, fondateur du site Web technologique Stratechery. Lorsqu’on lui a demandé s’il y avait ou devrait y avoir une sorte de « coalition anti-Google » dans l’espace de l’IA » ? Nadella a déclaré qu’il y aura toujours des shorts sur le marché qui permettront à certaines personnes d’être intégrées verticalement. À long terme, il est plus convaincu de la spécialisation horizontale. Dans l’industrie des puces, par exemple, Nvidia souhaite que les modèles d’IA leading soient entraînés sur ses puces. Mais en fait, Google a sa propre puce TPU, AMD innove également activement dans ce domaine, tout comme Microsoft.
  • 1
08:00

Singularity Computing poursuit Google pour violation de ses brevets exclusifs sur les puces d’IA, réclamant 1,67 milliard de dollars

Une société informatique a récemment poursuivi Google, alléguant que les processeurs d’IA de la société avaient enfreint deux de ses brevets technologiques et réclamé 7 milliards de dollars, qui ont été révisés à 1,67 milliard de dollars au cours du procès. Le plaignant dans le procès, Joseph Bates, un informaticien de Singular Computing, a déclaré aux jurés que Google avait copié sa technologie et l’avait utilisée pour le développement de l’intelligence artificielle. Entre 2010 et 2014, Google et Bates ont discuté de la perspective d’un partenariat, et Bates a discuté de la façon dont ses puces compatibles avec l’IA pourraient alimenter le traitement de l’IA, selon Kerry Timbers, l’avocat de Bates. Bates a accusé Google de plagier ses innovations et de les utiliser dans des unités de traitement tensorielles (TPU). Timbers a déclaré que Google a développé TPU sur la base de ses réalisations technologiques pour une utilisation dans divers services, notamment Google Translate, Google Search, Gmail et d’autres services. Timbers a ajouté que Google a lancé sa première génération de processeurs d’IA en 2016 capables de recommandations publicitaires, de génération de contenu et de reconnaissance vocale. Cependant, les 2e et 3e éditions enfreignent les brevets de Singular Computing, et en tant que tels, le procès devrait aller jusqu’au procès. Google a demandé à la Cour d’appel des États-Unis de rejeter la poursuite.
Plus
  • 1
06:20
Une société informatique a récemment poursuivi Google, accusant le processeur d’IA de la société d’avoir enfreint deux de ses brevets technologiques, réclamant 7 milliards de dollars, qui ont été révisés à 1,67 milliard de dollars au cours du procès, comme l’a rapporté IT Home le 10 janvier. Le plaignant dans le procès, Joseph Bates, un informaticien de Singular Computing, a déclaré aux jurés que Google avait copié sa technologie et l’avait utilisée pour le développement de l’intelligence artificielle. Entre 2010 et 2014, Google et Bates ont discuté de la perspective d’un partenariat, et Bates a discuté de la façon dont ses puces compatibles avec l’IA pourraient alimenter le traitement de l’IA, selon Kerry Timbers, l’avocat de Bates. Bates a accusé Google de plagier ses innovations et de les utiliser dans des unités de traitement tensorielles (TPU). Timbers a déclaré que Google a développé TPU sur la base de ses réalisations technologiques pour une utilisation dans divers services, notamment Google Translate, Google Search, Gmail et d’autres services. Timbers a ajouté que Google a lancé sa première génération de processeurs d’IA en 2016 capables de recommandations publicitaires, de génération de contenu et de reconnaissance vocale. Cependant, les 2e et 3e éditions enfreignent les brevets de Singular Computing, et en tant que tels, le procès devrait aller jusqu’au procès. Google a demandé à la Cour d’appel des États-Unis de rejeter la poursuite.
11:08
Selon les nouvelles officielles, UtilityNet, un réseau de puissance de calcul d’IA de décentralisation dans la voie DePIN, a récemment annoncé une plate-forme de test cloud de conteneurs d’IA basée sur des puces TPU et des serveurs informatiques intelligents connexes sur la plate-forme X. Il est rapporté que les développeurs d’IA peuvent obtenir une certaine quantité de puissance de calcul AI Cloud Mining pour le déploiement et l’inférence de grands modèles en postulant pour participer au test du cloud de conteneurs Utility AI. Les puces et l’équipement derrière cette puissance de Cloud Mining sont fournis par des mineurs de services publics qui participent à la période de bêta fermée actuelle, ce qui indique également que la piste DePIN, qui a attiré beaucoup d’attention récemment, a mené un projet avec des cas d’atterrissage réels.
02:14
Google Cloud et la start-up d’IA générative Mistral AI ont annoncé conjointement un partenariat mercredi heure locale pour permettre à la startup de distribuer ses modèles de langage sur l’infrastructure du géant de la technologie, selon Webmaster House. Dans le cadre de l’accord, Mistral AI utilisera l’infrastructure optimisée pour l’IA de Google Cloud, y compris les accélérateurs TPU, pour tester, construire et mettre à l’échelle ses grands modèles de langage (LLM) tout en bénéficiant des normes de sécurité et de confidentialité de Google Cloud. Mistral AI a été fondée par d’anciens chercheurs en IA de Meta et de Google. La société a déclaré lundi qu’elle avait levé 385 millions d’euros (415 millions de dollars) lors d’un deuxième tour de financement en sept mois, mené par des investisseurs tels que Andreessen-Horowitz et LightSpeed Ventures. Il a été précédemment rapporté que Mistral AI a clôturé un nouveau tour de table de 385 millions d’euros et lancera un nouveau grand modèle de langage.
01:10
Google Cloud a lancé TPU V5P, l’accélérateur d’IA le plus puissant, le plus évolutif et le plus flexible de la société à ce jour, comme l’a rapporté la Financial Associated Press le 6 décembre.
01:36
Google est en pourparlers pour investir des centaines de millions de dollars dans le fabricant de chatbots Character.AI, selon deux personnes familières avec le dossier, comme l’a rapporté Reuters le 11 novembre. La start-up de chatbot IA à croissance rapide est à la recherche de financements pour former des modèles et répondre aux besoins des utilisateurs. Selon une troisième source, l’investissement, qui pourrait prendre la forme d’un billet convertible, approfondira Character.AI collaboration existante avec Google, qui utilise les services cloud et les unités de traitement tensorielles (TPU) de Google pour entraîner des modèles.
  • 2
07:58
La start-up d’IA Anthropic sera l’une des premières entreprises à utiliser la nouvelle puce de Google, à la suite d’un récent accord de cloud computing, comme l’a rapporté Bloomberg le 9 novembre. Anthropic déploiera la puce Cloud TPU v5e de Google pour alimenter son grand modèle de langage appelé Claude, ont annoncé les sociétés mercredi. Selon une personne proche du dossier, Anthropic a récemment accepté d’investir plus de 3 milliards de dollars dans les services de cloud computing de Google sur quatre ans. En outre, Google s’est engagé à investir 2 milliards de dollars dans la startup.
13:44
Selon le rapport Theregister, Google a récemment publié la puce de processeur tenseur personnalisé de cinquième génération TPU v5e lors de la conférence Cloud Next, qui peut être utilisée pour la formation et le raisonnement de modèles à grande échelle. Par rapport au TPU v4 sorti en 2021, Google a déclaré que la puce TPU v5e avait doublé les performances de formation par dollar et 2,5 fois les performances d'inférence par dollar des grands modèles de langage et des modèles d'intelligence artificielle générative.
  • 1
13:04
Selon un rapport de Webmaster's Home du 15 août, la société américaine de puces AI Groq a annoncé que l'usine de fonderie Taylor de Samsung produira ses puces accélératrices AI 4 nm. Le fondateur et PDG de Groq, Jonathan Ross, a déclaré que la coopération avec le processus 4 nm de Samsung apportera à Groq un saut technologique. Il est rapporté que Groq est le premier client publiquement connu de l'usine Taylor qui est devenue l'OEM de Samsung. Fondée en 2016 par l'ancien employé de Google Jonathan Ross, Groq se concentre sur le développement de puces IA pour le marché du cloud computing. Des membres clés de Groq ont participé au développement de l'unité de traitement tenseur (TPU) de Google. Après la création de l'entreprise, GroqChip a été lancé, capable de connecter 16 puces et équipé de 230 MBSRAM, avec une performance allant jusqu'à 750 TOPS. En avril 2021, Groq a reçu un financement de 300 millions de dollars américains d'institutions telles que D1 Capital et Tiger Global Fund. L'usine de fabrication de plaquettes de Samsung à Taylor, aux États-Unis, est la deuxième usine de fabrication de plaquettes de la société aux États-Unis. L'usine actuellement en construction prévoit de produire des puces de processus avancées inférieures à 5 nanomètres. Kye-Hyun Kyung, président-directeur général de Samsung Semiconductor, a déclaré que d'ici la fin de 2024, l'usine Taylor commencera la production de masse de produits 4 nm.
  • 1
09:27
Babbitt News, le 7 juin, Adam D'_Angelo, PDG de Quora, un site Web social de questions-réponses, a tweeté que l'une des raisons de la sous-estimation du boom de l'intelligence artificielle est la pénurie de GPU/TPU, qui a conduit à divers problèmes dans les lancements de produits et la formation des modèles. "Ce que nous voyons, c'est la flambée des cours de l'action de Nvidia. Une fois que l'offre répondra à la demande, les choses s'accéléreront." En réponse, Musk a répondu : "En effet. De plus, de nombreuses autres puces d'accélération de réseau neuronal sont également en développement. .Nvidia ne monopolisera pas indéfiniment le marché de la formation et de l'inférence à grande échelle."
  • 1
Charger plus
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)