+2 votes
par dans Séquence 15
fermée par
Bonjour,

Voici les deux questions servant de fil conducteur pour cette discussion. Nous vous invitons à répondre ci-dessous. A réagir aux réponses de chacun, upvote, downvote, ...

1. Avant de débuter un cours de Deep Learning comme FIdle, quelle perception de l'IA aviez-vous?

2. Quelles sont vos préoccupations éthiques concernant l'IA?
fermée avec la mention Spam

27 Réponses

+3 votes
par
1. Une boite noire algorithmique performante.

2. Quelles garanties d’objectivité des résultats (pas les métriques) obtenus quand on utilise des lots pré-entrainés (comme sur bioimage.io dans mon cas) ? Compatibilité RGPD et anonymisation des données médicales par exemple pour les épidémiologistes ? Confiance dans les news (deep fakes etc.) ?
+3 votes
par
2. Quelles sont vos préoccupations éthiques concernant l'IA ?

-> Que faire si l'IA que nous créons à des conséquences néfastes sur la société ? C'est-à-dire que notre algorithme résout un problème pour nous, mais quelqu'un arrive à prendre notre IA et à l'appliquer à de mauvaises fins. Sommes nous responsables ?
par
edité
+1
Je dirais qu'il ne faut pas oublier que l'IA est un outil
=> Donc des personnes ont sûrement déjà réfléchi sur ce point, appliqué à l'outil

Est-ce qu'on peut vraiment rendre responsable l'inventeur du marteau, si quelqu'un s'en sert pour tuer des gens ? ^^
par
Pour continuer sur les usages néfastes, j'avais entendu une émission expliquant que l'industrie du cyber-crime pesait représentait 4x plus d'argent que toutes les GAFAM réunies
=> On peut donc prédire sans trop de risque qu'ils utiliseront des IA comme ChatGPT pour améliorer leur "efficacité délictueuse"
=> Mais est-ce que pour autant il faudrait considérer OpenAI responsable ? Je suis pas sûr
par
Je suis totalement d'accord avec toi. Mais j'avais lu dans une formation d'éthique que lorsque nous publions, nous sommes responsables des conséquences de notre travail. Donc je ne sais pas trop à quel point on est responsable pour les dérives.
+3 votes
par
préoccupations: l'IA qui remplacera l'humain; l'IA qui ne sera plus controlable par l'humain, les usages de l'IA qui ne seront pas légiféré dans certains pays
+2 votes
par
1. Ma perception avant formation était celle d'une boite noire. J'avais une vision très floue de ses capacités et de son potentiel.

2. La première préocupation à laquelle je pense est liée à un questionnement sociétal, celui de la construction d'un monde à 2 vitesses: ceux qui ont accès à l'IA et les autres.
+2 votes
par
1. Un outil autant bon que mauvais, tout dépend de l'humain qui l'utilise.

2. Mort de certains métiers artistiques (beaucoup de gens refusent de payer correctement les dessinateurs et peuvent recourir à l'AI pour éviter de rémunérer ces personnes, éthiquement c'est naze), discrimination, utilisation pour faire de la propagande, etc... Comme dit plus haut je vois l'IA comme un outil à disposition, tant qu'il y a des gens moralement douteux, il y aura de l'IA moralement douteuse.
+2 votes
par
1. Une bien curieuse boîte noire. Avec un a priori plutôt négatif en provenance de lectures et de films de science-fiction.

         2. La sélection ou non-sélection de citoyens par des algorithmes aveugles. Le contrôle des comportements par le recoupement tous azimuts des données d'une  personne ou d'un groupe de personnes. La possibilité de modifier un outil d'IA par une caste de personnes le maîtrisant, à leur profit, avec des conséquences à l'échelle d'une population mondiale.
par Vétéran du GPU 🐋 (68.8k points)
Les films de science fiction mettent régulièrement en avant l'IA dans leur scénario. Ces situations fictives (parfois proche de la réalité) permettent d'explorer des argumentaires de pensée concernant l'éthique de l'IA.
+2 votes
par

2. Quelles sont vos préoccupations éthiques concernant l'IA?

Le capitalisme sémiotique lié aux IA générativesà qui appartiennent les contenus générés ? Ce concept étend celui de capitalisme linguistique qui met un prix sur des mots, symbolisé par le système de pub de Google.

Je recommande cette longue réflexion sur le sujet du chercheur Olivier Ertzscheid "Une question de génération. Vers un capitalisme sémiotique."

+1 vote
par (600 points)
2. L'ia est extrêmement puissante, mais comme les statistiques, il est très facile de lui faire dire n'importe quoi. J'ai un peu peur des conséquences sur la science et la société en général, à s'en remettre aveuglément à des résultats d'IA.

Le fait de ne pas pouvoir comprendre un résultat, en particulier en science, et je cherche toujours les applications pour ma science où je pourrais expliquer le résultat. Quand on veut être quantitatif plutôt que qualitatif, je ne sais pas comment l'IA peut être utilisée.
par
Je pense que pour ce qui est de la compréhension de résultats, il existe aujourd'hui des modèles dits interprétables. Il y a tout une branche de l'IA qui s'occupe de l'interpretabilité des modèles des résultats : Explainable AI (XAI).
par (600 points)
je ne comprends pas du tout ces modèles pour l'instant, notamment le lien entre compréhension et barre d'erreurs.
+1 vote
par

Quelles sont vos préoccupations éthiques concernant l'IA?

Il y en a plusieurs, mais l'une d'elles est la reproduction des positions hégémoniques (notamment des biais racistes et sexistes). Notamment, Timnit Gebru and al. rapportaient que les grands modèles de langage, fonctionnant comme perroquets stochastiques, risquent d'amplifier les positions hégémoniques dans la mesure où leurs données générées vont in fine être les données d'entrainement pour d'autres modèles futurs.

+1 vote
par
2. Les biais induis de manière volontaire (ou involontaire) par les entités qui financent la recherche et le développement  de l'IA.
par Vétéran du GPU 🐋 (20.4k points)
Lesquels par exemple ? Je vois des exemples d'entreprises qui induisent des biais de manière volontaire dans leur modèles en production mais je ne vois pas en recherche.
...