Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Comment développer des systèmes d'IA de manière responsable et à grande échelle ? Découvrez l'IA responsable, les concepts et termes pertinents, et comment implémenter ces pratiques dans les produits.
Développer et faire évoluer l'IA de manière responsable
L'intelligence artificielle (IA) alimente de nombreuses applications et services que les utilisateurs utilisent au quotidien. Avec des milliards d'utilisateurs de l'IA dans des domaines allant de l'entreprise à la santé en passant par l'éducation, il est essentiel que les entreprises s'efforcent de s'assurer que les avantages de ces technologies l'emportent largement sur les inconvénients.
L'IA responsable prend en compte l'impact sociétal du développement et de l'échelle de ces technologies, y compris les avantages et les risques potentiels. Les principes de l'IA de Google constituent un cadre permettant de créer les expériences les plus utiles, sûres et fiables pour tous. Ces principes incluent des objectifs pour les applications d'IA, ainsi que des applications que nous ne poursuivrons pas dans le développement de systèmes d'IA.
Dimensions de l'IA responsable
Lorsque vous développez des solutions d'IA, nous vous recommandons de prendre en compte les dimensions d'IA responsable suivantes:
Équité
Responsabilité
Sécurité
Confidentialité
Nous allons ensuite examiner chacune de ces dimensions.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/14 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/14 (UTC)."],[[["Responsible AI is crucial for mitigating the potential harms and maximizing the benefits of AI technologies, impacting diverse fields like business, healthcare, and education."],["Google's AI Principles guide the development of AI applications to ensure helpful, safe, and trusted user experiences."],["Key dimensions of Responsible AI include fairness, accountability, safety, and privacy, all of which must be considered when developing AI solutions."]]],[]]