Un code d'éthique de l'IA, également appelé plateforme de valeurs de l'IA, est une déclaration de principe qui définit officiellement le rôle de l'intelligence artificielle dans le cadre du développement continu de la race humaine. Un code d'éthique de l'IA fournit des conseils aux parties prenantes lorsqu'elles sont confrontées à des décisions éthiques concernant l'intelligence artificielle.
Isaac Asimov était un auteur de science-fiction qui a vu les dangers des agents autonomes de l'IA bien avant qu'ils ne soient développés. Il a créé les Trois lois de la robotique pour limiter ces risques. Dans le code d'éthique d'Asimov, la première loi interdit aux robots de nuire activement aux humains ou de permettre qu'ils le fassent en refusant d'agir. La deuxième loi exige que les robots obéissent aux ordres des humains, sauf s'ils sont incompatibles avec la première. La troisième loi ordonne aux robots de se protéger, dans la mesure où cela est conforme aux deux premières lois. Bien que les développeurs en soient encore aux premiers stades de l'adoption de l'IA, il est important que les entreprises adoptent des approches éthiques et responsables lors de la création de systèmes d'IA. À cette fin, un institut à but non lucratif fondé par Max Tegmark, cosmologiste du MIT, Jaan Tallinn, cofondateur de Skype, et Viktoriya Krakovnahas, chercheur chez DeepMind, a collaboré avec des chercheurs et des développeurs en IA pour établir un ensemble de principes directeurs, désormais appelés "principes d'IA d'Asilomar". Ce code d'éthique de l'IA stipule que : La recherche en IA doit avoir pour objectif de produire non seulement une intelligence non dirigée mais aussi une intelligence bénéfique. Les investissements dans l'IA doivent être accompagnés d'un financement de la recherche visant à garantir son utilisation bénéfique. Il doit être possible pour un système d'IA de causer des dommages. Toute implication d'un système autonome dans la prise de décision judiciaire devrait fournir une explication satisfaisante et auditable par une autorité humaine compétente. Il est important d'avoir un échange sain et constructif entre les décideurs politiques et les chercheurs en IA. Une culture de coopération, de confiance et de transparence devrait être encouragée parmi les chercheurs et les développeurs de l'IA. Les équipes qui développent des systèmes d'IA devraient coopérer activement afin d'éviter de rogner sur les normes de sécurité. Les systèmes d'intelligence artificielle doivent être sûrs et fiables pendant toute leur durée de vie. Les concepteurs et les constructeurs de systèmes d'IA avancés sont parties prenantes des implications morales de leur utilisation, de leur mauvaise utilisation et de leurs actions, et ont la responsabilité et la possibilité de façonner ces implications. Les systèmes d'IA évolués doivent être créés de manière à ce que leur comportement et leurs objectifs puissent s'aligner sur les valeurs humaines. Les systèmes d'IA doivent être conçus et exploités de manière à être compatibles avec les idéaux de dignité humaine, de droits, de libertés et de diversité culturelle. Les personnes devraient avoir le droit d'accéder, de gérer et de contrôler les données qu'elles génèrent, étant donné le pouvoir des systèmes d'IA d'analyser et d'utiliser ces données. L'application de l'IA aux données personnelles ne doit pas restreindre de manière déraisonnable la liberté réelle ou perçue des personnes. La technologie de l'IA devrait être utilisée pour donner du pouvoir et profiter au plus grand nombre de personnes possible. La prospérité économique créée par l'IA doit être partagée largement, au bénéfice de l'ensemble de l'humanité. Pour atteindre les objectifs choisis par les humains, ces derniers devraient décider de confier ou non des décisions aux systèmes d'intelligence artificielle. Le pouvoir conféré par le contrôle de systèmes d'IA hautement avancés devrait respecter et améliorer, plutôt que subvertir, les processus sociaux et civiques dont dépend la santé de la société. Les systèmes d'IA présentent des risques qui peuvent être catastrophiques, voire existentiels. Il est important de prévoir ces impacts potentiels et d'élaborer des plans d'atténuation. Il est important d'éviter une course à l'armement avec des armes létales et autonomes.
- Code de réponse rapide (code qr) Définition - Que signifie le code de réponse rapide (QR Code)? Un code de réponse rapide (code QR) est un type de code à barres bidimensionnel composé de modules carrés noirs sur fond blanc. Les codes QR sont conçus pour être lus par les smartphones. Parce qu'ils peuvent transporter des...
- Code d’échange décimal codé binaire étendu (ebcdic) Définition - Que signifie EBCDIC (Extended Binary Coded Decimal Interchange Code)? Le code d'échange décimal codé binaire étendu (EBCDIC) est un code binaire de 8 bits pour les caractères numériques et alphanumériques. Il a été développé et utilisé par IBM. Il s'agit d'une représentation codée dans laquelle les symboles, lettres...
- Code-barres bidimensionnel (code-barres 2D) Définition - Que signifie le code à barres bidimensionnel (code à barres 2D)? Un code-barres bidimensionnel (code-barres 2D) permet de stocker des informations sur les axes horizontaux et verticaux. Cette image graphique peut être imprimée, intégrée sur un écran numérique ou présentée autrement pour la numérisation et l'analyse. Les codes-barres...
- Code QR (code de réponse rapide) Le code QR (code de réponse rapide) est un code bidimensionnel (2D) utilisé pour accéder facilement à des informations en ligne via l'appareil photo numérique du smartphone. L'appareil photo est doté d'un lecteur de code-barres qui interprète le code. Ce code-barres contient généralement des liens permettant de consulter des pages...