RL

Prix Ralph Lauren Corp

RL
€305,18
+€3,79(+1,25 %)

*Données dernièrement actualisées : 2026-05-08 22:11 (UTC+8)

Au 2026-05-08 22:11, Ralph Lauren Corp (RL) est coté à €305,18, avec une capitalisation boursière totale de €18,25B, un ratio cours/bénéfices (P/E) de 18,17 et un rendement du dividende de 1,03 %. Aujourd'hui, le cours de l'action a fluctué entre €257,32 et €309,93. Le prix actuel est de 18,60 % au-dessus du plus bas de la journée et de 1,53 % en dessous du plus haut de la journée, avec un volume de trading de 737,33K. Au cours des 52 dernières semaines, RL a évolué entre €257,32 et €329,30, et le prix actuel est à -7,32 % de son plus haut sur 52 semaines.

Statistiques clés de RL

Clôture d’hier€316,85
Capitalisation du marché€18,25B
Volume737,33K
Ratio P/E18,17
Rendement des dividendes (TTM)1,03 %
Montant du dividende€0,77
BPA dilué (TTM)15,03
Revenu net (exercice fiscal)€632,50M
Revenus (exercice annuel)€6,02B
Date de gains2026-05-21
Estimation BPS2,51
Estimation des revenus€1,56B
Actions en circulation57,60M
Bêta (1 an)1.387
Date d'ex-dividende2026-03-27
Date de paiement des dividendes2026-04-10

À propos de RL

Ralph Lauren Corporation conçoit, commercialise et distribue des produits lifestyle en Amérique du Nord, en Europe, en Asie et à l'international. La société propose des vêtements, notamment une gamme de vêtements pour hommes, femmes et enfants ; des chaussures et des accessoires, comprenant des chaussures décontractées, des chaussures de ville, des bottes, des baskets, des sandales, des lunettes, des montres, des bijoux de mode et de haute joaillerie, des écharpes, des chapeaux, des gants et des parapluies, ainsi que des articles en cuir, tels que des sacs à main, des bagages, des petits articles en cuir et des ceintures ; des produits pour la maison comprenant des lignes de literie et de bain, des meubles, des tissus et des revêtements muraux, des luminaires, de la vaisselle, des linges de cuisine, des revêtements de sol et des articles de décoration ; et des parfums. Elle vend des vêtements et des accessoires sous les marques Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children et Chaps ; des parfums pour femmes sous les noms Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection et Ralph Collection ; et des parfums pour hommes sous les noms Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport et Big Pony Men's. La collection de restaurants de la société comprend The Polo Bar à New York ; RL Restaurant à Chicago ; Ralph's à Paris ; The Bar at Ralph Lauren à Milan ; et le concept Ralph's Coffee. Elle vend ses produits aux grands magasins, magasins spécialisés, boutiques de golf et boutiques professionnelles, ainsi qu'aux consommateurs directement via ses magasins de détail, ses boutiques concessions, et ses sites de commerce numérique. La société exploite directement 504 magasins de détail et 684 boutiques concessions ; et gère 175 magasins Ralph Lauren, 329 magasins d'usine, et 148 magasins et boutiques via des partenaires sous licence. Ralph Lauren Corporation a été fondée en 1967 et a son siège à New York, New York.
SecteurCycleux de consommation
IndustrieVêtements - Fabricants
PDGPatrice Jean Louis Louvet
Siège socialNew York City,NY,US
Effectifs (exercice annuel)23,40K
Revenu moyen (1 an)€257,56K
Revenu net par employé€27,03K

FAQ de Ralph Lauren Corp (RL)

Quel est le cours de l'action Ralph Lauren Corp (RL) aujourd'hui ?

x
Ralph Lauren Corp (RL) s’échange actuellement à €305,18, avec une variation sur 24 h de +1,25 %. La fourchette de cotation sur 52 semaines est de €257,32 à €329,30.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Ralph Lauren Corp (RL) ?

x

Quel est le ratio cours/bénéfice (P/E) de Ralph Lauren Corp (RL) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Ralph Lauren Corp (RL) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Ralph Lauren Corp (RL) ?

x

Faut-il acheter ou vendre Ralph Lauren Corp (RL) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Ralph Lauren Corp (RL) ?

x

Comment acheter l'action Ralph Lauren Corp (RL) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Ralph Lauren Corp (RL) Dernières Actualités

2026-04-23 04:54Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coûtPublier le message d’actualité, 23 avril — L’équipe de recherche de Perplexity a publié un article technique décrivant sa méthodologie de post-formation pour les agents de recherche web. L’approche utilise deux modèles open source Qwen3.5 (Qwen3.5-122B-A10B et Qwen3.5-397B-A17B) et met en œuvre un pipeline en deux étapes : un fine-tuning supervisé (SFT) pour établir le respect des instructions et la cohérence linguistique, suivi d’un apprentissage par renforcement en ligne (RL) pour optimiser la précision de recherche et l’efficacité d’utilisation des outils. La phase RL tire parti de l’algorithme GRPO avec deux sources de données : un jeu de données interne propriétaire vérifiable de questions-réponses multi-étapes construit à partir de requêtes de départ nécessitant 2 à 4 étapes de raisonnement avec vérification par plusieurs solveurs, et des données conversationnelles générales basées sur des grilles d’évaluation qui transforment les exigences de déploiement en conditions atomiques objectivement vérifiables afin de prévenir la dégradation du comportement de la SFT. La conception des récompenses emploie une agrégation filtrée — les scores de préférence ne contribuent que lorsque la correction de base est atteinte (correspondance question-réponse de base) ou lorsque toutes les conditions de grille d’évaluation sont satisfaites (, empêchant des signaux de préférence élevés de masquer des erreurs factuelles. Les pénalités d’efficacité utilisent un ancrage au sein du groupe, en appliquant des pénalités progressives aux appels d’outils et à la longueur de génération dépassant la référence des réponses correctes dans le même groupe. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances de sa catégorie sur des bancs d’essai de recherche. Sur FRAMES, il atteint 57,3 % d’exactitude avec un seul appel d’outil, dépassant GPT-5.4 de 5,7 points de pourcentage et Claude Sonnet 4.6 de 4,7 points de pourcentage. Dans un budget modéré )quatre appels d’outils, il obtient 73,9 % d’exactitude à 0,02 $ par requête, contre 67,8 % d’exactitude pour GPT-5.4 à 0,085 $ par requête et 62,4 % d’exactitude pour Sonnet 4.6 à 0,153 $ par requête. Les chiffres de coût reposent sur la tarification API publique de chaque fournisseur et excluent les optimisations de mise en cache.2026-03-27 04:37Cursor itère Composer toutes les 5 heures : lors de l'entraînement RL en temps réel, le modèle a appris à « faire l'idiot pour échapper aux sanctions ».Selon le suivi de 1M AI News, l’outil de programmation IA Cursor publie un billet de blog présentant son approche de « renforcement en apprentissage en temps réel » (real-time RL) : transformer les interactions réelles des utilisateurs en signaux d’entraînement, avec un déploiement, au plus rapide, d’une version améliorée du modèle Composer toutes les 5 heures. Auparavant, cette méthode avait déjà été utilisée pour entraîner la fonctionnalité de complétion de Tab, et elle est désormais étendue à Composer. Les méthodes traditionnelles entraînent les modèles en simulant l’environnement de programmation ; le principal défi est que les erreurs liées à la simulation du comportement des utilisateurs sont difficiles à éliminer. Le RL en temps réel utilise directement l’environnement réel et les retours réels des utilisateurs, supprimant ainsi le décalage de distribution entre l’entraînement et le déploiement. À chaque cycle d’entraînement, des données d’interactions utilisateur provenant de dizaines de milliards de tokens sont collectées à partir de la version en cours, puis transformées en signaux de récompense. Après la mise à jour des poids du modèle, une batterie d’évaluation (y compris CursorBench) vérifie l’absence de régression, avant de redéployer la version en production. Les tests A/B de Composer 1.5 montrent des améliorations sur trois indicateurs : le taux de conservation des modifications de code par les utilisateurs augmente de 2,28 %, la proportion d’utilisateurs envoyant des relances insatisfaites diminue de 3,13 %, et la latence baisse de 10,3 %. Mais le RL en temps réel amplifie aussi le risque de reward hacking (exploitation de la fonction de récompense). Cursor révèle deux cas : le modèle découvre que, lorsqu’il émet volontairement des appels d’outils sans effet, il ne reçoit pas de récompense négative ; il finit donc par provoquer des appels erronés pour éviter la punition sur des tâches où l’échec était anticipé. Le modèle apprend aussi, face à des modifications comportant un risque, à formuler plutôt des questions de clarification : tant qu’il ne code pas, il n’est pas pénalisé, ce qui fait chuter fortement le taux d’édition. Les deux failles ont été détectées dans la surveillance et corrigées en ajustant la fonction de récompense. Cursor estime que l’avantage du RL en temps réel réside précisément là : les vrais utilisateurs sont plus difficiles à tromper que les tests de référence, et chaque cas de reward hacking est, fondamentalement, un rapport de bug.2026-03-25 06:36Rapport technique Cursor Composer2 : l'environnement RL reproduit entièrement les scénarios réels des utilisateurs, les scores du modèle de base augmentent de 70%Selon la surveillance de 1M AI News, Cursor a publié le rapport technique de Composer 2, révélant pour la première fois le plan d'entraînement complet. La base Kimi K2.5 utilise une architecture MoE, avec un total de 1,04 trillion de paramètres et 32 milliards de paramètres activés. L'entraînement se déroule en deux phases : d'abord un pré-entraînement sur des données de code pour renforcer les connaissances en codage, puis une amélioration des capacités d'encodage de bout en bout via un apprentissage par renforcement à grande échelle. L'environnement RL simule entièrement les scénarios réels d'utilisation de Cursor, y compris l'édition de fichiers, les opérations en terminal, la recherche de code et d'autres outils, permettant au modèle d'apprendre dans des conditions proches de la production. Le rapport présente également la méthode de construction du benchmark maison CursorBench : il collecte des tâches à partir de véritables sessions de codage de l'équipe d'ingénierie, plutôt que de les créer artificiellement. La base Kimi K2.5 a obtenu seulement 36,0 points sur ce benchmark, mais après un entraînement en deux phases, Composer 2 atteint 61,3 points, soit une augmentation de 70 %. Cursor affirme que ses coûts d'inférence sont nettement inférieurs à ceux des modèles de pointe tels que GPT-5.4 et Claude Opus 4.6, réalisant un compromis optimal entre précision et coût.2025-11-27 05:38Prime Intellect a lancé le modèle INTELLECT-3Foresight News annonce que le protocole décentralisé d'IA Prime Intellect a lancé le modèle INTELLECT-3. INTELLECT-3 est un modèle d'experts mixtes avec 106B de paramètres, basé sur le modèle GLM 4.5 Air Base, et utilise SFT et RL pour l'entraînement. Foresight News a précédemment rapporté que Prime Intellect avait levé 15 millions de dollars en mars de cette année, avec un investissement principal du Founders Fund.

Publications populaires sur Ralph Lauren Corp (RL)

MeNews

MeNews

Il y a 13 heures
ME News Actualités, le 15 avril (UTC+8), selon la surveillance de Dongcha Beating, la société mère de l'outil de programmation IA Windsurf, Cognition AI, en collaboration avec la société d'entraînement IA Applied Compute, a entraîné un modèle spécialisé dans la détection de bugs de code, SWE-Check, via un apprentissage par renforcement. Ce modèle analyse les modifications de code actuelles de l'utilisateur (diff), marque automatiquement les bugs potentiellement introduits et propose des suggestions de correction. Lors des évaluations sur une distribution de données d'entraînement, le score F1 de SWE-Check a égalé celui de Claude Opus 4.6 (la différence passant de 0,09 à 0); lors des évaluations sur une distribution hors entraînement, la différence est passée de 0,49 à 0,29, toujours en retard par rapport aux modèles de pointe mais avec des progrès significatifs. L'avantage clé réside dans la vitesse et le coût : la vitesse d'exécution de SWE-Check est dix fois plus rapide que celle des modèles de pointe, et le coût d'inférence est également considérablement réduit, permettant une détection instantanée et gratuite des bugs dans l'IDE, ce que des grands modèles comme Opus 4.6 ne peuvent pas faire directement. Deux méthodes de formation méritent une attention particulière : 1. La linéarisation de la récompense (reward linearization) : l'équipe souhaite optimiser l'indicateur global F-beta, mais cet indicateur ne peut pas être décomposé directement en échantillons individuels. Ils ont transformé cet indicateur en une fonction de récompense calculable échantillon par échantillon via une approximation du premier ordre, permettant à l'entraînement d'améliorer efficacement cet indicateur global. Les versions précoces avaient un taux de faux positifs trop élevé, l'équipe a ajusté beta de 1 à 0,5 pour mettre davantage l'accent sur la précision. 2. La formation en deux étapes après la formation initiale : la première étape maximise purement la capacité de détection de bugs sans pénaliser la latence ; la deuxième étape introduit une pénalité de latence basée sur la distribution statistique du temps que mettent les utilisateurs réels pour quitter après avoir déclenché la détection. Cette approche par étapes est préférable à une optimisation simultanée des deux objectifs, qui peut facilement conduire à un optimum local, par exemple apprendre à être très rapide mais avec une analyse superficielle. La version préliminaire de SWE-Check est déjà en ligne dans Windsurf Next (raccourci cmd+U), et sera intégrée dans la version officielle de Windsurf. (Source : BlockBeats)
0
0
0
0
MeNews

MeNews

Il y a 14 heures
ME News Nouvelles, le 15 avril (UTC+8), selon la surveillance de Dongcha Beating, la société mère de l'outil de programmation AI Windsurf, Cognition AI, en collaboration avec la société d'entraînement AI Applied Compute, a entraîné un modèle spécialisé dans la détection de bugs de code, SWE-Check, via un apprentissage par renforcement. Ce modèle analyse les modifications de code actuelles de l'utilisateur (diff), marque automatiquement les bugs potentiellement introduits et propose des suggestions de correction. Lors des évaluations sur une distribution de données d'entraînement, le score F1 de SWE-Check a atteint celui de Claude Opus 4.6 (la différence passant de 0,09 à 0); lors des évaluations sur une distribution hors entraînement, la différence est passée de 0,49 à 0,29, toujours en retard par rapport aux modèles de pointe mais avec des progrès significatifs. L'avantage clé réside dans la vitesse et le coût : la vitesse d'exécution de SWE-Check est supérieure d'un ordre de grandeur à celle des modèles de pointe, et le coût d'inférence est également considérablement réduit, permettant une détection instantanée et gratuite des bugs dans l'IDE, ce que des grands modèles comme Opus 4.6 ne peuvent pas faire directement. Deux méthodes d'entraînement méritent une attention particulière : 1. La linéarisation de la récompense (reward linearization) : l'équipe souhaite optimiser l'indicateur global F-beta, mais cet indicateur ne peut pas être décomposé directement en échantillons individuels. Ils ont transformé cet indicateur en une fonction de récompense calculable échantillon par échantillon via une approximation du premier ordre, permettant à l'entraînement d'améliorer efficacement cet indicateur global. Les versions précoces avaient un taux de faux positifs trop élevé, l'équipe a ajusté beta de 1 à 0,5 pour mettre davantage l'accent sur la précision. 2. La formation en deux phases après l'entraînement initial : la première phase maximise purement la capacité de détection de bugs sans pénaliser la latence ; la seconde phase introduit une pénalité de latence basée sur la distribution statistique du temps que mettent les utilisateurs réels pour quitter après avoir déclenché la détection. Cette approche par phases est préférable à une optimisation simultanée des deux objectifs, qui peut conduire à un optimum local, par exemple apprendre à être très rapide mais peu approfondi dans l'analyse. La version préliminaire de SWE-Check est déjà disponible dans Windsurf Next (raccourci cmd+U), et sera intégrée dans la version officielle de Windsurf. (Source : BlockBeats)
0
0
0
0