Aux Assises thématiques sur l’intelligence artificielle organisées par le ministère de la Culture, au 1535 Creative Hub à Differdange, la journée du 12 novembre s’est ouverte sous le signe du questionnement. Portées par le ministre Eric Thill et orchestrées par Cédric Kayser et Alessandra Luciano, chargés de mission dans le cadre de l’IA, ces rencontres ont cherché moins à rassurer qu’à penser les frictions. Elles se sont clairement situées entre course technologique déjà bien entamée ailleurs (et peut-être irrattrapable) et réflexions. Les échanges ont navigué entre la promesse d’un avenir grisant et le désenchantement complet.
Le ministère de la Culture prône un humanisme technologique, qui, à travers les Assises, cherche un cadre dans une approche bottom-up. Un livre blanc* rédigé par les équipes du ministère a été présenté en tout début de la matinée. Je n’en ferai qu’une brève analyse. Ce document, qui s’entend pour les auteurs comme un manifeste, sert à la structuration du plan de développement culturel, mais contribuera aussi à la stratégie du Luxembourg sur l’IA. Il s’ouvre sur un constat plutôt éclairé : la culture est à un tournant décisif face à l’IA. Il accueille cette révolution technologique comme un levier d’innovation et de pluralité, tout en considérant de très près les menaces qui y sont associées. Les menaces sont nommées : uniformisation galopante, perte de diversité, fragilisation des créateurs et puis une dérive économique. Le document affiche une ambition claire, celle de faire des IA, autant d’outils au service de l’humain et non l’inverse. Une évidence éthique.
Justement, le document s’inscrit dans une volonté d’encadrer l’usage des IA dans le champ culturel selon une éthique de responsabilité, de transparence et d’inclusion. Il affirme que la technologie doit être pensée à l’échelle de la société tout entière, dans un dialogue entre les artistes, les institutions, les chercheurs et tous les citoyens. Dans ce cadre, l’État se positionne non pas comme un simple régulateur, mais comme garant d’un développement respectueux des valeurs humanistes.
Le texte trace les contours, où la culture jouera un rôle de boussole morale face à la puissance de l’IA. Il propose une vision ambitieuse et nuancée, mais reste souvent à un niveau programmatique, multipliant les principes sans toujours définir les outils de leur mise en œuvre. Toutes les tensions entre innovation et protection, mais aussi entre ouverture et contrôle, traversent le document sans trouver de résolution claire, mais c’est voulu. Son mérite est ainsi d’affirmer la culture comme un espace de résistance éthique et plutôt que de subir la révolution, le ministère appelle ici à la penser collectivement, de manière transversale, comme un champ d’expérimentation, démocratique et critique. Ce texte pose ainsi les jalons d’une réflexion européenne où l’intelligence artificielle ne serait plus seulement une question d’efficacité, mais aussi celle de sens, de liberté, voire de beauté. En somme, une redéfinition de l’identité européenne et du coup, luxembourgeoise aussi. La keynote du Dr Klaus Speidel qui a suivi cette première présentation, a d’emblée posé le cadre et le niveau de réflexion : celui d’une pensée critique sur la fabrique du sens à l’ère des images génératives. Philosophe et théoricien de l’art, Klaus Speidel ne s’attarde plus à la fascination pour la nouveauté et il pose les jalons. Tout au long de sa présentation, il a interrogé la manière dont les outils de l’IA redessinent les contours mêmes de la création, mais aussi ceux du regard et de la responsabilité. L’enjeu n’est donc plus seulement esthétique, mais profondément ontologique : que devient l’acte d’interpréter quand les images précèdent la pensée ? Par un détour sur l’histoire de l’art, il a rappelé que chaque mutation technologique, de la photographie à la vidéo, du numérique aux intelligences génératives, déplace la frontière du possible sans jamais abolir le besoin du regard situé. En substance, il répète que l’IA nous oblige à repenser surtout la confiance, celle dans l’image, mais aussi celle dans celui qui la produit.
Cette question de confiance s’est prolongée dans la première table ronde, où artistes et professionnels ont témoigné de leurs propres vertiges. L’actrice et metteuse en scène, Sophie Langevin, évoquait sa création App Human de 2020 autour du libre arbitre, aujourd’hui rattrapée par l’actualité fulgurante de l’IA générative. La peur initiale s’est transformée en inquiétude éthique, celle de voir son image numérisée, reproduite et utilisée sans consentement. « Dans le théâtre, il reste encore un espace de présence réelle, de vie, qui s’effrite à travers le monde de l’image digitale. »
Son propos a fait surgir une angoisse plus vaste. « L’intelligence artificielle », disait-elle, « nous devance et nous propose tout » et c’est peut-être là son plus grand danger, de penser à notre place. La réflexion s’est élargie à la fragilité du métier d’acteur, aux risques de disparition du doublage, par exemple, de la scénarisation et à l’existence d’avatars synthétiques capables d’incarner indéfiniment des personnages humains, à l’instar de Tilly Norwood, actrice. Je dirais qu’au-delà des atteintes au droit à l’image, c’est en effet une érosion du vivant qui se dessine, une homogénéisation des formes et des sensibilités, au profit d’un imaginaire standardisé. Face à la lourdeur des législations, la nécessité d’une éducation critique s’est imposée comme une profonde urgence. Sophie Langevin a évoqué « l’usage subversif des technologies ». À ces craintes, il y a au moins la réponse de l’éducation des jeunes, car tous les lycéens du pays se voient enseigner le cours des Sciences digitales avec de la théorie, mais aussi de l’expérimentation, dans un esprit critique, depuis cinq ans et, dans ce sens, le Luxembourg a été aux avant-postes en Europe.
Filip Markiewicz a témoigné de lucidité en nommant ce à quoi nous sommes tous confrontés et que nous ignorons pourtant, à savoir les idéologies qui se cachent derrière les entreprises et les entrepreneurs qui nous livrent les outils, les IA. Il dit ne pas avoir peur de ces outils, dont il se sert par ailleurs lui-même, notamment pour ses créations, mais avoir peur des gens qui les mettent en place et qui en génèrent des profits colossaux. Jamais dans l’histoire de l’humanité, une économie (celle des données et celle de notre attention, qui profite aux patrons de la Big Tech situés presque tous outre-Atlantique) n’a généré autant de profits. Face à ce constat et aux rumeurs de rachats de la seule grande entité IA européenne, à savoir Mistral, – que ces rumeurs soient fondées ou représentent peut-être un levier pour attirer plus de capitaux européens –, se pose la question de l’autonomie face aux technologies développées aux États-Unis et en Chine.
Marc Nickts de la Sacem a souligné les mêmes craintes et le besoin de régulations plus strictes. Stéphanie Silvestri a répété la volonté du gouvernement de travailler dans la transversalité et de veiller à l’empreinte écologique et à l’éthique en termes de colonialisme des données et des droits humains.
Les Assises ont prouvé que le Luxembourg, avec son secteur culturel, souhaite participer à la configuration de ce monde, finalement plus si nouveau que ça, mais dont on ne connaît pas encore les tenants et les aboutissants précis. Ainsi, il est très juste de ne pas être naïf et de se poser la question du cadre à établir, notamment des régulations qui correspondent aux besoins, mais aussi aux valeurs éthiques de l’Europe, du Luxembourg.
La seconde table ronde, consacrée au patrimoine numérique, a déplacé la discussion plutôt vers les institutions culturelles, leurs responsabilités et leurs craintes. Le linguiste Alexandre Ecker a rappelé combien la question du pouvoir et de la langue traverse ces enjeux, il n’existe pas une, mais des langues luxembourgeoises et des usages. Autant de nuances que les modèles linguistiques risquent d’écraser. Christophe Jacobs et Alexandra Benamar ont insisté sur le double visage des technologies comme des accélératrices d’accès et de catalogage, mais porteuses d’un risque de perte de contrôle. Christophe Jacobs a appelé à ne jamais oublier « le pire » dans la traçabilité. La transparence et l’éthique professionnelle ne sont pas des abstractions, mais des garde-fous contre la tentation d’une potentielle amnésie collective face, par exemple, à des systèmes autoritaires. Alexandra Benamar, de son côté, a décrit les efforts techniques de l’INA pour rendre visibles les biais, les erreurs et les marges d’incertitude inhérentes aux outils d’analyse. Lynn Klemmer, artiste, a souhaité se redonner, tout comme au citoyen, la possibilité de critiquer l’information et de comprendre d’où elle vient et ce qu’elle produit.
Ces discussions ont dessiné une cartographie de la responsabilité à l’ère des algorithmes. On retrouve auprès de presque tout le monde une même intuition, il ne s’agit plus seulement de réguler l’IA, de se rendre compte à quelles idéologies ou business plans elle peut être affiliée, mais il faut préserver notre capacité à penser par nous-mêmes en maintenant la complexité du langage, mais aussi celle du regard et douter.
L’après-midi s’est déployée en une série d’ateliers pratiques, invitant à toucher du doigt ce que le matin avait questionné. Ici, on a vu les usages concrets, mais aussi les limites et les promesses des technologies génératives.
Avec Elektron, l’accent s’est déplacé vers la médiation culturelle et l’accessibilité. L’IA peut-elle devenir un outil d’inclusion, une aide à la compréhension et à la traduction, par exemple. L’atelier a bien montré que la réponse se trouve moins dans la technologie que dans la manière dont on la façonne. Au Digital Learning Hub (DLH), la question des compétences numériques et de la formation s’est imposée comme un préalable. Le Technoport a, lui, proposé une exploration de la convergence technologique et des partenariats public et privé. L’atelier a mis en lumière l’écosystème luxembourgeois de l’innovation.
Le Zenter fir d’Lëtzebuerger Sprooch (ZLS) a proposé une démonstration d’outils linguistiques, révélant le potentiel de l’IA pour la reconnaissance et la valorisation du luxembourgeois. Derrière la performance technique se jouait une question politique : comment faire exister les langues minoritaires dans un espace numérique dominé par la langue anglaise ?
Plus expérimental, Velvet Flare a dévoilé la visualisation de pipelines de l’IA pour la génération d’images, donnant à voir les coulisses de ces processus. Le C²DH (Université du Luxembourg) a présenté le projet Impresso, une plateforme qui croise archives de presse, analyse de données et narration historique. Enfin, la Bibliothèque nationale du Luxembourg (BnL) a démontré avec From Paper to Pixels to Stories, comment l’IA peut accompagner la numérisation du patrimoine, sans le figer ni le dénaturer. Entre la matinée et l’après-midi, inscrite dans la convivialité, le public a eu aussi pu assister à une performance audiovisuelle d’Andrea Mancini.
Ces Assises, dans leur diversité et dans leur approche ouverte, ont offert une image polyphonique du rapport du Luxembourg à l’IA, un rapport fait d’expérimentations, de prudence, mais aussi de beaucoup de curiosité et de l’espoir de voir notre capacité collective transformer la technologie en culture.
Les rencontres n’ont pas livré de solutions directes, mais elles ont ouvert un espace de partage, celui d’un trouble du monde où l’on continue d’espérer que la pensée et la mémoire vont pouvoir encore être humaines, une question d’identité profonde à prendre à bras le corps dans un pays qui se veut de toutes les opportunités. Je dirais que l’opportunité ici, n’est pas seulement celle de la course aux technologies (ça fait partie du jeu) mais à leur appréhension critique avec toute la créativité et gouvernance intelligente possible. Le ministre l’a lancé : « Kreativitéit ass an der Panz. »