TENCENT

Prix TENCENT 00700.HK

TENCENT
€0
+€0(0,00 %)
Aucune donnée

*Données dernièrement actualisées : 2026-05-08 19:47 (UTC+8)

Au 2026-05-08 19:47, TENCENT 00700.HK (TENCENT) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, TENCENT a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.

Statistiques clés de TENCENT

Ratio P/E0,00
Rendement des dividendes (TTM)0,00 %
Actions en circulation0,00

En savoir plus sur TENCENT 00700.HK (TENCENT)

Articles de Gate Learn

Première cotation : Gate Futures annonce le lancement d’actions avec 6 contrats USDT-M perpétuels, comprenant TENCENT et XIAOMILes Futures Stocks de Gate lanceront officiellement le Live Trading des contrats perpétuels USDT-M sur TENCENT (TENCENT 00700.HK), MEITUAN (MEITUAN 03690.HK), XIAOMI (XIAOMI 01810.HK), KUAISHOU (KUAISHOU 01024.HK), XUNCE (XUNCE 03317.HK) et ZHIPU (ZhiPu 02513.HK) à 06h00 (UTC) le 13 avril 2026. Les positions long et short sont prises en charge, avec un effet de levier ajustable de 1x à 20x. L'effet de levier peut être choisi lors de la passation de l'ordre.2026-04-13
La section des contrats d'actions Gate proposera la première négociation de 6 contrats perpétuels, comprenant notamment TENCENT (Tencent Holdings 0700.HK) et MEITUAN (Meituan 03690.HK)Selon les informations rapportées, la disposition des catégories d’actifs traditionnels de Gate est exhaustive et couvre l’intervalle le plus large sur l’ensemble du réseau.2026-04-13
Mask Network prend le relais de Lens pour ouvrir un nouveau chapitre : le réseau social décentralisé passe de l’infrastructure à une adoption massive par les utilisateurs.Lens Protocol a rempli sa mission, et Mask Network s’impose désormais comme un acteur de premier plan dans la création de réseaux sociaux décentralisés accessibles au grand public. Mask administre Mastodon, qui enregistre 1,9 million d’utilisateurs actifs chaque mois, a acquis Orb et ses 50 000 utilisateurs, et a construit un écosystème de produits intégrant Firefly et Web3.bio. Bonfire a investi dans plus de 120 projets, affirmant ainsi son statut de Tencent du Web3.2026-01-23

FAQ de TENCENT 00700.HK (TENCENT)

Quel est le cours de l'action TENCENT 00700.HK (TENCENT) aujourd'hui ?

x
TENCENT 00700.HK (TENCENT) s’échange actuellement à €0, avec une variation sur 24 h de 0,00 %. La fourchette de cotation sur 52 semaines est de €0 à €0.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour TENCENT 00700.HK (TENCENT) ?

x

Quel est le ratio cours/bénéfice (P/E) de TENCENT 00700.HK (TENCENT) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de TENCENT 00700.HK (TENCENT) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour TENCENT 00700.HK (TENCENT) ?

x

Faut-il acheter ou vendre TENCENT 00700.HK (TENCENT) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action TENCENT 00700.HK (TENCENT) ?

x

Comment acheter l'action TENCENT 00700.HK (TENCENT) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

TENCENT 00700.HK (TENCENT) Dernières Actualités

2026-05-08 06:25Yu Wenhao, ancien chercheur en IA de Tencent, rejoint OpenAI en tant que chercheur en RIA (intelligence artificielle générale) le mois dernierBeating, Yu Wenhao, ancien chercheur principal au laboratoire Seattle de Tencent AI, a rejoint OpenAI le mois dernier en tant que chercheur en AGI. Il a confirmé sur LinkedIn qu’il contribuera à façonner les modèles d’IA de prochaine génération et à faire progresser le développement de l’AGI. Yu est titulaire d’un doctorat en informatique de l’université de Notre Dame (2023) et a publié plus de 30 articles de conférences de tout premier plan, avec plus de 5 700 citations. Ses travaux portent sur l’apprentissage par renforcement après l’entraînement, le raisonnement et les agents. Chez Tencent, il a dirigé le projet WebVoyager, qui a été adopté par OpenAI et Google. Son expertise des mécanismes de self-play et des systèmes d’agents s’aligne sur la stratégie actuelle d’OpenAI, qui consiste à utiliser l’apprentissage par renforcement pour améliorer les capacités de raisonnement des modèles.2026-05-07 02:31L’aperçu de Tencent Hunyuan Hy3 observe une hausse de 10x des tokens en deux semainesDepuis son lancement il y a deux semaines, la préversion Hy3 de Hunyuan de Tencent a connu une augmentation de 10 fois du nombre d’appels de jetons par rapport au modèle Hy2 précédent. L’utilisation des jetons dans les scénarios de code et d’agents a augmenté particulièrement fortement, avec des applications telles que WorkBuddy, Codebuddy et Qclaw qui déclarent une croissance dépassant 16,5x.2026-05-06 09:11Neuf grands fournisseurs de services cloud relèvent leurs prévisions de capex 2026 à 830 milliards de dollarsD’après TrendForce, neuf grands fournisseurs de services cloud — Google, Amazon Web Services, Meta, Microsoft, Oracle, ByteDance, Tencent, Alibaba et Baidu — ont relevé leurs prévisions combinées de dépenses d’investissement pour 2026 à environ 830 milliards de dollars, portées par une forte demande en IA. Le taux de croissance d’une année sur l’autre a été révisé à la hausse, passant de 61 % à 79 %.2026-05-04 01:41Tencent a utilisé le code de Claude d’Anthropic dans la dernière formation du modèle Hy3, indique The InformationSelon The Information, en citant des mémos internes de Tencent et des sources, des employés de Tencent ont utilisé Claude Code, d’Anthropic, pendant la phase de post-formation de Hy3, le dernier grand modèle de langage de l’entreprise, malgré l’interdiction explicite d’Anthropic des services commerciaux aux entreprises chinoises, invoquant des inquiétudes liées à la sécurité nationale. Hy3 présente une architecture de type mixture-of-experts avec 295B paramètres. Durant la phase RLHF (reinforcement learning from human feedback, apprentissage par renforcement à partir de retours humains), le personnel de Tencent a servi d’évaluateurs humains, avec une utilisation plafonnée à des milliers de tokens par personne. Des mémos internes ont fourni des guides d’installation de Claude Code. Des employés de Tencent ont utilisé Claude Code pour générer des exemples de référence de haute qualité destinés à noter des sorties de modèle anonymes, plutôt que ce qu’ils ont décrit comme de la distillation. Un porte-parole d’Anthropic a déclaré que l’entreprise surveille activement les attaques de distillation, mais n’a pas abordé directement l’utilisation de Claude Code par Tencent.2026-04-23 14:41OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI (grok-imagine-image et grok-imagine-image-pro), ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.

Publications populaires sur TENCENT 00700.HK (TENCENT)

金色财经_

金色财经_

Il y a 7 heures
Auteur : Su Yang, Tencent Technology 8 mai, OpenAI a ajouté trois nouveaux modèles vocaux de nouvelle génération dans l'API : GPT‑Realtime‑2, axé sur la **raisonnement vocal et la conversation** ; Realtime‑Translate, mettant en avant la **traduction multilingue en temps réel** ; et Realtime‑Whisper, concentré sur la **transcription vocale**. GPT‑Realtime‑2 est le premier modèle vocal d'OpenAI doté d'un raisonnement de niveau GPT‑5. Il montre des progrès significatifs dans les tests de référence : une précision de 96,6 % dans l’évaluation audio Big Bench Audio, et un taux de réussite moyen de 48,5 % dans l’évaluation de conformité aux instructions Audio MultiChallenge, soit respectivement une amélioration de 15,2 et 13,8 points de pourcentage par rapport à la génération précédente, GPT‑Realtime‑1.5. Basé sur GPT‑Realtime‑2, l’IA vocale a évolué d’un simple question-réponse tournant en boucle à une forme capable d’écouter, raisonner, invoquer des outils et accomplir des tâches tout au long d’un dialogue. Un assistant vocal « pensant » --------- L’objectif de GPT‑Realtime‑2 est de permettre au modèle vocal de maintenir la fluidité de la conversation tout en disposant des capacités de raisonnement et d’action nécessaires pour traiter des tâches complexes. Pour améliorer la naturalité des dialogues, **le modèle introduit un mécanisme de phrases directrices.** Les développeurs peuvent activer des prompts courts tels que « Laissez-moi vérifier » ou « Un instant, je regarde », pour informer l’utilisateur que la requête a été reçue et est en cours de traitement, avant même la génération de la réponse officielle. Par ailleurs, **le modèle supporte l’appel simultané de plusieurs outils externes avec transparence**, permettant au modèle d’utiliser plusieurs outils en parallèle et d’informer l’utilisateur de l’avancement via la voix, par exemple en disant « Vérification de votre calendrier » ou « Recherche en cours », afin de maintenir une réponse active plutôt que de rester silencieux. En cas de difficulté, **le modèle peut volontairement indiquer « Je rencontre un petit problème » et tenter de se rétablir**, évitant ainsi un échec silencieux ou une interruption immédiate de la conversation. De plus, **la fenêtre de contexte du modèle est passée de 32K à 128K**, ce qui lui permet de conserver la cohérence dans des dialogues plus longs et complexes, soutenant un flux de travail plus complet pour l’agent intelligent. Concernant l’adaptabilité à des scénarios professionnels, le modèle a renforcé sa compréhension des termes spécifiques à certains domaines, en conservant plus précisément le vocabulaire technique, les noms propres et la terminologie médicale, ce qui est précieux pour le déploiement en environnement de production. Sur le plan de l’expression, il offre un ton et une expressivité plus contrôlables, pouvant changer de style selon le contexte. Une autre mise à jour clé est **la capacité de moduler l’intensité du raisonnement**. Les développeurs peuvent choisir parmi cinq niveaux : minimal, low, medium, high et xhigh (par défaut à low), pour équilibrer délai et profondeur de raisonnement. Pas de bavardage ---- GPT‑Realtime‑2 surpasse nettement ses prédécesseurs dans les tests Dans l’évaluation Big Bench Audio, qui mesure la capacité de raisonnement complexe des modèles vocaux, GPT‑Realtime‑2 (niveau élevé de raisonnement) a atteint une précision de 96,6 %, contre 81,4 % pour GPT‑Realtime‑1.5, soit une amélioration de 15,2 points de pourcentage. Dans l’évaluation Audio MultiChallenge, qui teste l’interactivité multi-tour des systèmes de dialogue oral — couvrant la conformité aux instructions, l’intégration du contexte, la cohérence interne et la correction naturelle de la parole — la moyenne de réussite de GPT‑Realtime‑2 (niveau xhigh de raisonnement) est passée de 34,7 % pour GPT‑Realtime‑1.5 à 48,5 %, soit une hausse relative de 13,8 points de pourcentage. En réalité, pour juger si un modèle vocal est vraiment « intelligent », le scénario le plus convaincant n’est pas la conversation banale, mais la résolution d’un problème complexe nécessitant plusieurs étapes de déduction. Note : OpenAI a présenté dans ses documents de démonstration un test concret : un utilisateur décrivant son projet entrepreneurial, avec la déduction vocale et la transcription correspondante pour deux générations de modèles Realtime. Ce cas illustre une tâche composite très exigeante en raisonnement : le modèle doit comprendre simultanément plusieurs relations entre variables, la répartition inégale du flux de clients dans le temps, le coût élevé du loyer fixe, et le positionnement d’un commerce à faible rotation comme le slow coffee, tout en effectuant une déduction logique sous ces contraintes. GPT‑Realtime‑2 a fourni une réponse structurée, claire et hiérarchisée en 1 minute 4 secondes, décomposant le conflit entre afflux de clientèle et structure de loyer, soulignant que la concentration excessive en heures de pointe pourrait réduire la rentabilité globale, et proposant un chemin de test léger. En revanche, le même questionnement posé à l’ancienne version GPT‑Realtime‑1.5 a reçu une réponse en 51 secondes, mais avec une profondeur nettement moindre. Cette démonstration compare directement la différence générationnelle en termes de raisonnement stratégique. 03 Traduction et transcription en temps réel ---------- Outre GPT‑Realtime‑2, deux autres modèles spécialisés, également lancés par OpenAI, ciblent des scénarios précis. **GPT‑Realtime‑Translate se concentre sur la traduction multilingue en temps réel, supportant plus de 70 langues d’entrée,** avec une sortie instantanée dans 13 langues cibles, tout en fournissant une transcription. Son application principale inclut le support client, la vente transfrontalière, l’éducation, les événements, et les plateformes de créateurs à audience mondiale. Le responsable IA de Vimeo, Alberto Parravicini, a partagé leur cas d’usage : intégrer GPT‑Realtime‑Translate lors de la lecture vidéo, permettant aux créateurs de communiquer instantanément avec un public mondial dans différentes langues. Démonstration de Vimeo : traduction en temps réel avec GPT‑Realtime‑Translate **GPT‑Realtime‑Whisper est un modèle de transcription vocale en flux continu,** conçu pour des scénarios à faible latence. Il peut commencer à générer du texte dès que le locuteur ouvre la bouche, adapté pour les sous-titres en direct, les notes de cours, les sous-titres de diffusion, et les flux vocaux nécessitant une génération immédiate pour la suite du workflow. Son intérêt principal est de transformer le contenu vocal en texte structuré utilisable immédiatement par les systèmes en aval. Sécurité et tarification ----- Sur le plan de la sécurité, l’API Realtime intègre plusieurs barrières — un **classificateur intégré capable de surveiller en temps réel les conversations, et d’interrompre la session si un contenu nuisible est détecté.** Les développeurs peuvent également ajouter facilement des barrières de sécurité personnalisées via le SDK Agents. Les politiques d’utilisation d’OpenAI interdisent explicitement d’utiliser les sorties pour du spam, de la fraude ou d’autres usages nuisibles. Selon les directives officielles, sauf si le contexte indique clairement qu’il s’agit d’une interaction avec une IA, le développeur doit informer explicitement l’utilisateur final qu’il converse avec une intelligence artificielle (en lui rappelant : « La personne qui parle est une IA »). De plus, cette API supporte pleinement la résidence des données dans l’UE pour les clients européens, sous la protection d’engagements de confidentialité d’entreprise. Les trois modèles sont désormais accessibles via l’API Realtime pour les développeurs. Concernant la tarification, GPT‑Realtime‑2 est facturé par token vocal : 32 dollars pour 1 million de tokens d’entrée (avec un coût de 0,40 dollar pour 100 millions de tokens en cache), et 64 dollars pour 1 million de tokens de sortie. GPT‑Realtime‑Translate est facturé à l’usage, à 0,034 dollar par minute. GPT‑Realtime‑Whisper est également tarifé à la minute, à 0,017 dollar. Pour soutenir cette nouvelle « famille vocale », le PDG d’OpenAI, Sam Altman, a déclaré sur X : « Les gens commencent vraiment à interagir avec l’IA par la voix, surtout quand ils doivent fournir beaucoup de contexte en une seule fois. » Il a aussi mentionné que la génération plus jeune semble préférer communiquer avec l’IA par la voix, tandis que les personnes plus âgées privilégient la saisie, soulevant la question ouverte de savoir si cette habitude pourrait évoluer à l’avenir. La question est : après cette mise à jour des capacités de raisonnement vocal d’OpenAI, qui sera le prochain à prendre la relève ?
0
0
0
0
Krystal_1

Krystal_1

Il y a 8 heures
Pas étonnant que Sun Ge @sunyuchentron dise de ne pas contacter les vieux loups, En effet, ces derniers jours, j'ai étudié ses points de vue, ils sont vraiment avant-gardistes. Il a dit en 2016, que les jeunes ne devraient pas acheter de maison, ni de voiture, ne pas se marier, mais plutôt investir dans la technologie, en se concentrant fortement sur Bitcoin, Nvidia, Tesla, Tencent. Ceux qui suivent ses conseils devraient déjà avoir atteint la liberté financière. Ne pas se marier, en réalité, certains riches ne veulent pas obtenir de certificat, ce n’est pas simplement qu’ils ne veulent pas fonder une famille, mais surtout qu’ils ont peur que le mariage les lie, qu’ils craignent que leurs biens soient divisés ou dilués à l’avenir. Pour eux, la question n’est pas d’avoir des enfants ou de transmettre leur sang, mais si leur lignée peut continuer, le certificat de mariage n’est qu’un simple papier. Il dit qu’acheter sur Xianyu, c’est le vrai prix. Je suis d’accord avec cela, mais je maintiens une autre logique : gagner de l’argent, c’est pour le dépenser, accepter volontairement une prime, c’est en fait faire profiter la base et générer des revenus. Il dit que l’IA manque finalement de stockage, c’est pourquoi récemment, toute la Corée a fait fortune. Du Bitcoin à l’IA, sa compréhension de la nouvelle ère dépasse largement celle de beaucoup de vieux loups. Warren Buffett a complètement manqué la fête de l’IA cette fois, en gros, il ne suit pas la nouvelle logique, il ne comprend pas les nouvelles méthodes de jeu.
0
0
0
0