Les responsables de l’UE proposent des engagements pour des simulations de renseignement largement utiles

5 minutes, 51 seconds Read

Les administrateurs de l’UE à l’origine des travaux sur la loi sur le renseignement informatique ont présenté des engagements critiques pour les fournisseurs de grands modèles de langage tels que ChatGPT et Stable Dissemination tout en essayant d’expliquer les obligations liées à la chaîne d’estime du renseignement simulée.

La loi sur l’intelligence simulée est un règlement européen de premier plan pour diriger la conscience artificielle à la lumière de sa capacité à vraiment blesser. Une question centrale dans les discussions sur la proposition de réglementation est la manière de gérer l’intelligence artificielle largement utile (GPAI), des modèles de langage énormes qui peuvent être ajustés pour différentes entreprises.

Les bureaux des co-rapporteurs du Parlement européen, Dragoș Tudorache et Brando Benifei, ont partagé mardi (14 Walk) un premier projet sur ce sujet délicat, proposant quelques engagements pour les fournisseurs de ce type de modèles d’intelligence artificielle et des responsabilités concernant les différents artistes financiers inclus.

L’intelligence simulée universellement utile est un « cadre d’intelligence artificielle qui est préparé sur de vastes informations à grande échelle, est destiné à une simplification excessive du résultat et peut être ajusté à un grand nombre de courses ».

Le rapport, consulté par EURACTIV, indique que les cadres d’intelligence artificielle produits pour un ensemble restreint d’utilisations qui ne peuvent pas être ajustés pour un grand nombre de tâches telles que des pièces, des modules ou de simples cadres d’intelligence artificielle multi-raisons ne doivent pas être considérés. en tant que cadres de renseignement informatisés largement utiles.

Engagements pour les fournisseurs de GPAI
Les co-rapporteurs estiment que les fournisseurs de GPAI devraient suivre une partie des conditions préalables initialement impliquées pour les dispositifs de renseignement informatisés susceptibles d’infliger tout type de dommage, quel que soit le canal de dispersion et dans le cas où le cadre est donné comme indépendant ou implanté dans un cadre plus large.

Le plan, les tests et l’examen des accords GPAI doivent être alignés sur le pari que les dirigeants ont besoin de la ligne directrice pour protéger le bien-être des individus, les principaux privilèges et les valeurs de l’UE, y compris en enregistrant les dangers non atténuables.

Les ensembles de données prenant en charge ces énormes modèles linguistiques doivent suivre des estimations appropriées de l’administration de l’information, telles que l’évaluation de leur pertinence, de leur caractère raisonnable et des prédispositions attendues, la distinction des insuffisances potentielles et des mesures d’atténuation relatives.

En outre, tout au long de leur cycle de vie, ChatGPT et autres devraient passer par des examens externes testant leur présentation, cohérence, interprétabilité, corrigibilité, sécurité et protection du réseau conformément aux conditions préalables les plus strictes de la loi sur le renseignement simulé.

De cette manière, les législateurs présentent un autre article ordonnant que les experts européens et l’Office du renseignement artificiel doivent créer mutuellement avec des partenaires mondiaux une direction et des capacités avisées pour quantifier et comparer les éléments de cohérence des cadres de renseignement artificiel, et en particulier GPAI.

Les modèles d’intelligence artificielle qui produisent du texte à la lumière d’invites humaines qui pourraient être confondues avec un véritable contenu créé par l’homme devraient dépendre d’engagements similaires en matière d’administration de l’information et de simplicité des cadres à haut risque, sauf si quelqu’un est légalement responsable du texte.

De même, les fournisseurs d’un modèle GPAI devraient l’inscrire sur l’ensemble de données de l’UE. En outre, ils devraient être d’accord avec l’administration de la qualité et les nécessités de dossiers spécialisés en tant que fournisseurs de renseignements artificiels à haut risque et suivre une technique d’évaluation de congruence similaire.

Obligations le long de la chaîne de valeur
Les législateurs de l’UE ont révisé un passage du prélude du texte sur les obligations des artistes financiers proches de la chaîne de valeur du renseignement artificiel et l’ont rappelé pour la partie requise du texte.

Plus précisément, le compromis stipule que tout étranger, semblable à un grossiste, un expéditeur ou un déployeur de renseignements informatiques, serait considéré comme un fournisseur d’un cadre à haut risque (avec les engagements connexes) en supposant qu’il modifie considérablement un renseignement créé par l’homme. cadre, y compris un cadre d’intelligence artificielle largement utile.

Dans ces cas, le fournisseur du premier cadre GPAI devrait aider le nouveau fournisseur, tout en donnant la documentation spécialisée importante, les capacités applicables et l’admission spécialisée pour se conformer à la directive sur l’intelligence artificielle sans compromettre les données économiquement délicates.

De cette manière, une autre annexe a été présentée affichant des exemples de données que les fournisseurs de GPAI doivent fournir aux administrateurs en aval concernant les engagements explicites de l’intelligence informatique. vigueur et protection en ligne.

Par exemple, pour aider l’administrateur financier en aval à consentir à jouer les conditions préalables du conseil d’administration du livre de règles de renseignement informatisé, l’annexe demande au fournisseur GPAI de partager des données sur les capacités et les obstacles du cadre, d’utiliser des directives, des résultats de tests d’exécution et de soulagement des risques. mesures.

Conditions juridiquement contraignantes déraisonnables
Les principaux responsables ont également proposé de présenter un autre article interdisant à tous les fournisseurs d’imposer singulièrement aux PME des conditions juridiquement contraignantes injustifiées pour l’utilisation ou l’intégration d’instruments dans un cadre à haut risque. Dans tous les cas, les accords doivent être considérés comme nuls.

« Une clause juridiquement contraignante est injustifiable dans le cas où elle est d’une nature telle que son utilisation s’écarte horriblement des bonnes pratiques commerciales dans le stock d’appareils, d’administrations, de pièces ou de cycles qui sont utilisés ou coordonnés dans un système de renseignement informatique à haut risque. cadre, en dépit d’intentions tout à fait pures et d’une gestion équitable », lit-on dans le texte.

Une autre formation considérée comme hors de propos est dans le cas où l’accord déplace les sanctions ou les frais de justice résultant de la violation de la directive.

Bureau du renseignement artificiel
Le récapitulatif des activités du Bureau du renseignement artificiel a été communiqué pour donner également des indications sur la manière dont la directive sur le renseignement informatique s’appliquerait aux chaînes d’estime de l’intelligence artificielle en évolution rapide et aux ramifications connexes concernant la responsabilité.

De plus, l’organisme de l’UE est mentionné pour examiner les modèles GPAI, la manière dont ils sont utilisés et les procédures acceptées en matière d’auto-administration. Le bureau du renseignement simulé aurait également besoin d’orchestrer les échanges entre les fournisseurs du GPAI et les spécialistes, spécialistes et réviseurs publics.

Similar Posts

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *