Runway

From Wikipedia, the free encyclopedia

Runway AI, Inc. (également connue sous les noms de Runway et RunwayML) est une société américaine basée à New York, spécialisée dans la recherche et les technologies d'intelligence artificielle générative (IAg)[1]. L'entreprise se concentre principalement sur la création de produits et de modèles pour la génération de vidéos, d'images et de contenus multimédias variés. Elle est notamment connue pour avoir développé les modèles d'IA générative commerciaux de conversion texte-vidéo et de génération vidéo Gen-1, Gen-2[2],[3], Gen-3 Alpha[1], Gen-4[4], Gen-4.5[5], Act-One et Act-Two[6], Aleph et Game Worlds[7].

Les outils et les modèles d'IA de Runway ont été utilisés dans des films tels que Everything Everywhere All at Once[8], dans des clips musicaux d'artistes tels que A$AP Rocky[9], Kanye West[10], Brockhampton et The Dandy Warhols, et dans le montage d'émissions de télévision comme The Late Show[11] et Top Gear[12].

Histoire

La société a été fondée en 2018 par les Chiliens Cristóbal Valenzuela[13], Alejandro Matamala et le Grec Anastasis Germanidis après leur rencontre à la Tisch School of the Arts ITP de l'université de New York[14].

En 2018, la société lève 2 millions de dollars américains pour construire une plateforme permettant de déployer des modèles d'apprentissage automatique à grande échelle dans des applications multimédias, puis 8,5 millions[15] en décembre 2020 lors d'un tour de financement de série A., puis 35 millions un an plus tard, lors d'un tour de table de série B.[16].

En août 2022, elle publie une version améliorée de son modèle de diffusion latente appelée Stable Diffusion, conjointement avec le groupe CompVis de l'université Ludwig Maximilian de Munich, grâce à un don de puissance de calcul de Stability AI[17],[18].

Le 21 décembre 2022, Runway lève 50 millions de dollars[19] lors d'un tour de table de série C suivi d'une extension de série C de 141 millions de dollars en juin 2023, portant la valorisation de l'entreprise à 1,5 milliard de dollars[20] auprès de Google, Nvidia et Salesforce[21], pour développer des modèles d'IA multimodaux fondamentaux pour la génération de contenu destiné à la production cinématographique et vidéo[22],[23].

En février 2023, Runway lance Gen-1 et Gen-2, le premier modèle de génération vidéo-à-vidéo et texte-à-vidéo de base commercial et accessible au public[1],[2],[3], accessible via une interface web simple.

En juin 2023, Runway est sélectionnée comme l'une des 100 entreprises les plus influentes au monde par le magazine Time[24].

Le 3 avril 2025, Runway lève 308 millions de dollars lors d'un tour de table mené par General Atlantic, ce qui la valorise à plus de 3 milliards de dollars[25],[26].

Services et technologies

Runway se spécialise dans l'intelligence artificielle générative (IAg) appliquée à la vidéo, aux médias et à l'art. L'entreprise développe une technologie de modélisation fondamentale propriétaire que les professionnels du cinéma, de la post-production, de la publicité, du montage et des effets visuels peuvent utiliser. Runway propose également une application iOS destinée aux consommateurs[27].

Le produit Runway est accessible via une plateforme web et via une API en tant que service géré.

Stable diffusion

Stable Diffusion est un modèle open-source d'apprentissage profond, de texte en image, publié en 2022 et basé sur l'article original « High-Resolution Image Synthesis with Latent Diffusion Models » publié par Runway et le groupe CompVis de l'université Ludwig Maximilian de Munich[28],[29],[18]. Stable Diffusion est principalement utilisé pour créer des images conditionnées par des descriptions textuelles.

Gen-1

Gen-1 est un système d'IA générative vidéo-à-vidéo qui synthétise de nouvelles vidéos en appliquant la composition et le style d'une image ou d'un texte à la structure d'une vidéo source. Le modèle a été lancé en février 2023. Gen-1 a été entraîné et développé par Runway Research à partir de l'article original « Structure and Content-Guided Video Synthesis with Diffusion Models » de Runway Research[30].

Gen-2

Gen-2 est un système d'IA multimodal capable de générer des vidéos originales à partir de texte, d'images ou de clips vidéo. Ce modèle fait suite à Gen-1 et intègre une modalité permettant de générer des vidéos par du texte. Gen-2 est l'un des premiers modèles de conversion texte-vidéo disponibles sur le marché[31],[32],[33],[34].

Gen-3 Alpha

Gen-3 Alpha est le premier d'une série de modèles à venir entraînés par Runway sur une nouvelle infrastructure conçue pour l'entraînement multimodal à grande échelle. Il présente une amélioration majeure en termes de fidélité, de cohérence et de mouvement par rapport à Gen-2, et constitue une étape vers la construction de modèles du monde général[2].

Les données d'entraînement de Gen-3 proviennent de milliers de vidéos YouTube et potentiellement de films piratés. Un ancien employé de Runway a affirmé à 404 Media qu'une initiative à l'échelle de l'entreprise consistait à compiler des vidéos dans des feuilles de calcul, puis à les télécharger via youtube-dl par le biais de serveurs proxy afin de contourner le blocage de YouTube. Lors de tests, 404 Media a découvert que les noms des YouTubeurs permettaient de générer des vidéos dans leur style respectif[35].

Gen 4

En mars 2025, Runway a lancé Gen-4, un modèle d'IA de génération vidéo que l'entreprise a décrit comme son outil le plus avancé à ce jour. Selon l'entreprise, il peut générer des personnages, des objets et des environnements cohérents d'une scène à l'autre, en utilisant des images de référence et des indications textuelles[36].

Contrairement aux modèles précédents qui traitaient chaque image comme une tâche créative distincte, avec des liens ténus entre elles, Gen-4 permet aux utilisateurs de générer des personnages cohérents quelles que soient les conditions d'éclairage, à partir d'une image de référence de ces personnages[37]. Ce modèle a introduit plusieurs fonctionnalités clés conçues pour répondre aux défis persistants de la génération vidéo par IA, notamment en matière de cohérence visuelle et de continuité narrative, qui donnaient auparavant aux contenus générés par IA un aspect décousu[38].

Gen-4 Turbo

Gen-4 Turbo, sorti en avril 2025[39], est une version plus rapide et plus économique de Gen-4. Le modèle Turbo utilise moins de crédits par seconde de vidéo.

References

Avec Gen-4 References, les utilisateurs peuvent importer des images de référence servant de base à la création de personnages, d'objets, de décors ou d'environnements dans différentes scènes[37]. Le système peut extraire un personnage d'une image et l'intégrer dans différentes scènes, transformer des éléments de personnages ou des environnements, fusionner des styles visuels entre images ou combiner des éléments provenant de sources multiples[40].

Aleph

En juillet 2025, Runway a lancé Aleph, qui permet d'effectuer des modifications sur les vidéos d'entrée, notamment l'ajout, la suppression et la transformation d'objets, la génération de n'importe quel angle de scène et la modification du style et de l'éclairage[41]. Avec le lancement d'Aleph, le modèle Gen-4 peut désormais prendre en charge diverses tâches de montage, notamment la manipulation d'objets, la transformation de scènes, la génération d'angles de caméra et le transfert de style[42].

Act-One et Act-Two

Act-One, sorti en octobre 2024, permet aux utilisateurs d'importer une vidéo de conduite et de la transformer en personnages réalistes ou animés[43]. Avec Act-One, les créateurs peuvent animer des personnages dans différents styles sans équipement de capture de mouvement ni système de rigging, tout en conservant des éléments importants de la performance originale, tels que le regard, les micro-expressions et le rythme subtil des mouvements[44],[45].

Act-Two, une version étendue, permet aux utilisateurs d'animer des personnages à partir d'une « driving vidéo » (c'est-à-dire à partir d'une vidéo-source qui drive, qui pilote, entraîne et contrôlera l'animation d'un personnage, où l'on voit par exemple une personne en train de jouer, bouger, s’exprimer. Cette performance sert ensuite de référence pour générer ou animer un personnage virtuel.

À partir de ce driver, l'IA contrôle les gestes et les mouvements du corps en ajoutant automatiquement le contexte et des mouvements environnementaux le cas échéant[46].

Mondes de jeu

En 2025, Runway a lancé Game Worlds, décrit comme « un aperçu des nouvelles frontières des expériences narratives non linéaires »[47]. Cet outil permet aux utilisateurs de jouer ou de créer des aventures textuelles accompagnées d'images[48]. Runway présente Game Worlds comme « un premier pas vers la prochaine ère du jeu vidéo » et affirme qu'il « représente la nouvelle frontière » du divertissement et de l'éducation interactifs[49].

Partenariats

Industrie du divertissement

IMAX

En août 2025, Runway s'est associé à IMAX pour projeter les films primés du AI Film Festival dans 10 grandes villes des États-Unis. Jonathan Fischer, directeur des contenus chez IMAX, a déclaré à propos de ce partenariat : « L'expérience IMAX a généralement été réservée aux cinéastes les plus accomplis et visionnaires du monde. Nous sommes ravis d'ouvrir nos horizons et d'utiliser notre plateforme pour expérimenter avec un nouveau type de créateur, à l'aube d'une convergence inédite entre narration et technologie »[50].

Réseaux AMC

En juin 2025, AMC Networks est devenue la première entreprise de câblodistribution à nouer un partenariat officiel avec Runway pour la création de contenu assistée par l'IA[51],[52]. Ce partenariat vise à utiliser la technologie de Runway pour générer des visuels marketing et faciliter la prévisualisation des programmes avant le début de la production[53]. AMC Networks prévoit d'utiliser les outils d'IA pour créer des supports promotionnels sans recourir aux séances photo traditionnelles et pour accélérer la prévisualisation lors du développement[54]. Selon Stephanie Mitchko, cadre chez AMC Networks, ce partenariat a pour objectif d'« améliorer nos méthodes de marketing et de création » tout en fournissant aux partenaires créatifs les outils nécessaires pour « donner vie aux histoires qu'ils souhaitent raconter »[51].

Lionsgate

En septembre 2024, Runway a annoncé un partenariat avec Lionsgate Entertainment pour créer un modèle de génération vidéo par IA personnalisé, entraîné sur le catalogue propriétaire du studio, qui compte plus de 20 000 titres de films et de séries télévisées[55],[56]. Ce modèle personnalisé est conçu exclusivement pour l’usage de Lionsgate et n’est pas accessible aux autres utilisateurs de Runway[57].

Ce partenariat, présenté comme le premier du genre entre une entreprise spécialisée en intelligence artificielle et un grand studio hollywoodien, permet aux cinéastes, réalisateurs et créatifs de Lionsgate d'utiliser des vidéos cinématographiques générées par l'IA pour les processus de préproduction et de postproduction[58],[59].

Festival du film de Tribeca

Depuis 2024, Runway collabore avec le Festival du film de Tribeca pour présenter des films générés par l'IA et explorer l'intégration de l'intelligence artificielle dans la réalisation cinématographique[60],[61]. Cette collaboration comprend un partenariat de programmation intitulé « Human Powered », qui propose des courts métrages et des clips musicaux créés à l'aide d'outils d'IA, suivis de séances de questions-réponses avec les cinéastes[62].

Le Festival du film de Tribeca est également un partenaire régulier du Festival du film d'intelligence artificielle de Runway. Ce partenariat a connu une croissance significative : en 2024, le Festival du film d'intelligence artificielle de Runway a reçu environ 3 000 candidatures, soit dix fois plus que l'année précédente[63]. Jane Rosenthal, PDG de Tribeca, a souligné l'importance de collaborer directement avec les entreprises spécialisées en intelligence artificielle afin de favoriser le dialogue sur le rôle de cette technologie dans la réalisation cinématographique, plutôt que de l'éviter ou de la combattre[61].

Éducation

Runway est intégré aux programmes de design et de réalisation cinématographique de grandes universités, notamment la Tisch School of the Arts de l'université de New York[64], l'UCLA[65], la RISD[66] et Harvard[67]. L'entreprise propose des ressources et un soutien à tarif réduit aux enseignants grâce à son programme « Runway for Educators », en collaborant avec les établissements pour garantir l'accès des étudiants et des classes aux outils créatifs d'IA[68].

Initiatives cinématographiques en IA

Festival du film IA

Depuis 2023, Runway organise chaque année un festival de films d'intelligence artificielle (AIFF) présentant des longs métrages créés à l'aide d'outils d'intelligence artificielle[69].

Le festival a connu une croissance spectaculaire, passant de 300 films soumis et projetés dans de petites salles new-yorkaises lors de sa première édition à plus de 6 000 films soumis en 2025[70]. L'édition 2025 s'est conclue par une projection à guichets fermés à l'Alice Tully Hall du Lincoln Center, attirant des cinéastes et des spectateurs du monde entier[71].

Le festival sert de plateforme aux cinéastes émergents pour explorer les possibilités créatives de la narration assistée par l'IA et est considéré par beaucoup comme un événement important à l'intersection de la technologie et du cinéma[72].

Gen:48

Runway organise le concours de courts métrages Gen:48, un défi de réalisation ultra-rapide qui offre aux participants 48 heures et des crédits de génération d'IA gratuits pour créer des courts métrages de 1 à 4 minutes[73]. Le format du concours est conçu pour encourager l'expérimentation avec les outils d'IA sous contrainte de temps, favorisant ainsi l'innovation dans la réalisation de films assistée par l'IA[74]. La première édition a été lancée en octobre 2023, suivie d'une deuxième en février 2024, et les éditions suivantes se sont poursuivies jusqu'en 2025[75]. L'« Édition Aleph » d'août 2025 a marqué la cinquième itération du concours[73]. Les participants reçoivent des crédits Runway et un accès temporaire et illimité aux outils de Runway pendant les 48 heures[75]. Le concours est devenu un événement incontournable de la communauté du cinéma d'IA, les gagnants remportant des prix tels que des récompenses en espèces, des crédits Runway et la possibilité de projeter leurs films au Festival du film d'IA[74].

Références

Voir aussi

Related Articles

Wikiwand AI