Aller au contenu

Déchet(s) recommandé(s)

Si une voiture intelligente reconnaît qu’un accident est inévitable, comment devrait-elle être programmée pour réagir? Et autres réflexions sur la programmation de la moralité dans les technologies d’IA.

Vos réactions au contenu de l’article de cet éthicien de l’UdeM m’intéressent. Je trouve que c’est un sujet très fécond à la réflexion éthique. Si vous êtes trop paresseux ou peu intéressés pour lire un article au complet, voici quelques pistes de réflexion tirées de sa comparaison avec l'éthique de l'IA, mais on en trouve plus que ça dans l'article.

Citation

· Faut-il déployer des voitures autonomes? Éthique de l’IA.

· Comment programmer une voiture autonome en cas d’accident inévitable? Éthique des algorithmes.

· Faut-il bannir les robots sexuels? Éthique de l’IA.

· Ces robots devraient-ils offrir l’option de simuler une résistance? Éthique des algorithmes.

· À quelles conditions un robot devrait-il avoir des droits? Éthique de l’IA.

· Une application de rencontres devrait-elle automatiser ou réduire certaines discriminations? Éthique des algorithmes.

 

Lien à poster
Partager sur d’autres sites

Si une voiture intelligente reconnaît qu’un accident est inévitable, comment devrait-elle être programmée pour réagir? 

En bref: c'est une question de merde pour des gens qui ont rien de mieux a foutre.

Fin.

Voila une explication un peu plus développé pour ceux qui ont quelques neurones qui fonctionnent. Pas la peine de me @.
 

Révélation

 

Aux problématiques relever par l'auteur comme l'option par defaut, il y aussi la responsabilite. Si une voiture "intelligente" commet une erreur, qui est penalement responsable?  Le proprietaire ou son constructeur? Ce dernier si l'intelligence artificielle est  en cause.

Déjà se pose la question de "pourquoi on n'a pas de voitures autonomes alors qu'on a la technologie et qu'on en parle depuis presque 5 ans ?" Mais une meilleure question plus pragmatique: Pourquoi une entreprise s'imposerait t'elle cette contrainte ? Il ne suffit pas d'avoir des programmeurs, il faut aussi repondre a un probleme philosophique classique:

Et spoiler; Il n'y a aucune "bonne" réponse morale a ce dilemme, il a été pense et écrit dans ce but, d'ailleurs. Si un constructeur ne peut pas donner une reponse claire et definitive a ses avocats et ses investisseurs, il peut dire adieu a son projet.

Puis viens la réalité: Il faut être d'une naïveté proche de la connerie pour seulement se dire qu'une entreprise capitaliste accepterait de se compliquer la tache pour la raison mesquine de sauver des vies humaines. Ça fait 1 siècle qu'on a normalise les morts accidentelles sur l'autoroute. Un fils de violeur de milliardaire de merde préférè coloniser mars plutôt que de résoudre la misère dans sa ville natale. Vous pensez que prendre la responsabilité des accidents de la route est son putain de problème ? Si vous n'etes pas convaincu, utilisez "prevention de risques" a la place de moral. Ca a plus de sens, tout d'un coup.

Voila un autre excellent article a lire avec un precedent legal et concret et pas simplement une experience de pensée. Il y a une putain de bonne raison pour laquelle on ne veut pas d'IA responsable de vie humaines en medecine ou dans les conflits armees.

 

Un roboticien, Rodney Brooks est encore plus cash que moi sur la question

Citation

by replacing the human driver with its AI driver, automakers are taking on a lot of moral and legal responsibility it never had before, just like someone who gained superpowers.  The human driver used to be liable for accidents caused by her or his decisions; now that liability is shifting to the AI driver that's capable of saving lives.

Mais encore plus simple: les humains ont deja un probleme a se mettre d'accord sur la moralite, en quoi un algorithme ethique pourrai-il resoudre une question aussi relative ? Un autre probleme se rajoute: tu peux comprendre le code moral d'un etre humain mais peux tu comprendre comment un  algorithme apprend ? Surprise ! On ne sait pas non plus, on est incapable de prévoir comment. Hors ça viole complétement les bases de la réglementation de la National Highway Traffic Safety Administration, qui a ete la premiere a rediger une charte sur les voitures autonomes.

Le problème moral est une chose mais ça n'a plus la meme valeur si le problème légal persiste et ca  n'en a plus du tout si l'industrie choisit une prise de position économique.

 

 

 

EVENTUELLEMENT: la question serait interessante en partant du fait que les IA ethiques sont une responsaibilites gouvernementales mais ils ont etrangement pris la decision de la refuser. CURIEUX.

 

cf586be1f225b27eccb4ea7e2d97bb8c.png

Lien à poster
Partager sur d’autres sites

la question que je vous retourne c'est : dans quel monde un véhicule intelligent pourrait reconnaître qu'un accident est inévitable ?

c'est peut-être dans ce type de réflexion que mon ISFJ manifeste ses limites, parce que la question du sujet m'apparaît un peu ésotérique compte tenu que :

1) la technologie n'est vraiment pas assez avancée actuellement* pour que ces questions et les réponses qui y sont apportées aient une réelle plus-value en terme d'application (ce que la branche de la philosophie appliquée semble avoir pour objectif de faire pour le peu que j'en connaisse). ce le sera si on atteint un niveau extrêmement avancé de progrès technologique, mais c'est un niveau qui n'existe à l'heure actuelle que dans nos films et nos livres, style Ex-Machina ou Ghost in a Shell.

Révélation

*par exemple, avec l'autopilote de la Tesla, il s'agit d'un ensemble de fonctionnalités (régulateur de vitesse et de distance, assistance de conduite, caméras et sonar, changement de voie automatisée sur l'autoroute etc.) qui facilitent la conduite de l'humain en comblant certains aspects de risque (comme la subjectivité dans l'évaluation des distances et de la vitesse et le manque de vision 360 degrés). on est vraiment loin d'une conduite 100% autonome.

 

2) compte tenu de ce que les technologies de conduite apporteront à la société au quotidien en termes de diminution des accidents et du trafic sur les routes, il serait plus concret de discuter de "comment" on devrait les encadrer. et là, on est un peu dans l'aspect éthique, mais aussi légal. par exemple, actuellement le conducteur est le seul responsable des accidents qui se produisent sur l'autopilote. mais est-ce que cette règle pourrait être appelée à changer avec le perfectionnement et la démocratisation de la technologie ? est-ce que la fonction, malgré ses aspects pratiques, risque d'entraîner des effets indésirables (déresponsabilisation du conducteur, perte de vigilance) et si oui, comment les minimiser ?

mais bon, je conçois que ton article adresse d'autres questions plus concrètes pour un ISTJ. genre ça c'est plus intéressent en terme d'application : 

image.thumb.png.8cf151b5e362cf87913fce26f8a6b1f3.png

image.thumb.png.382a5ec566660c16a555e4deb8142402.png

image.thumb.png.4be91599f30af94b674c6bb05d0d6bfc.png

 

Lien à poster
Partager sur d’autres sites

Effectivement, je vois comment ces questions en particulier sauraient aiguiller ta réflexion, elles me titillent aussi! En touchant à des questions qui se posent déjà en-dehors de l’IA (ex.: options de jouets orientés vers un genre plutôt qu’un autre), on peut faire intervenir des concepts avec lesquels on joue déjà. J’aime tout particulièrement l’idée d’une loterie pour définir l’accent par défaut de chaque objet IA acquis. Si t’aime pas, c’est à toi de faire l’effort et sinon, tant pis!

En ce qui concerne l’état actuel de l’IA ne nous permettant pas encore d’appliquer le fruit des réflexions éthiques à leur encontre… je ne m’y connais pas suffisamment, peut-être que @BLOBBIE ou @Jpeg si. J’étais dans l’impression que c’était un stade déjà atteint depuis au moins Perseverance

image.png.cfd34f38c8712e3099b657a8007aeced.png

Source

Si un astromobile peut évaluer que scénario X est indésirable, pourquoi pas Y et Z aussi, voire potentiellement tous ceux qui pourraient s’offrir à lui?

Lien à poster
Partager sur d’autres sites

parce que programmer un scénario comprenant quelques variables objectives (distance, vitesse, forme, température) ce n'est pas la même chose que programmer un scénario à multiples variables parmi lesquelles plusieurs sont de nature subjective (comme l'âge, le sexe, l'origine ethnique, etc.). pour que ça devienne un dilemme moral, ça prend minimalement des variables subjectives, il me semble.

par exemple, dans le "dilemme tragique" relaté dans l'article (à moins que tu pensais à d'autres scénarios, je pensais à celui-ci lorsque j'ai rédigé mon premier message): 

image.thumb.png.f261c495e74d956a4a4c6543dde0777a.png

il y a tellement de variables qui rentrent en compte dans ce scénario que technologiquement, je ne pense pas qu'on soit en mesure de le faire adéquatement (i.e. doter un véhicule des capacités de base pour reconnaitre correctement ce genre de situation, ne serait-ce que différencier un enfant d'un vieillard en intégrant sur un véhicule une caméra doté d'une reconnaissance faciale).

sans compter que la situation est circonstancielle et hypothétique au point où j'ai de la difficulté à voir comment elle pourrait se manifester dans la réalité, donc ultimement, d'un point de vue "commercial" (coût vs bénéfice), je ne pense pas que la volonté de doter un véhicule des facultés pour reconnaître ce genre de situation se présente, même si les capacités y étaient.

à bien y penser, il faudrait que 1) on ait équipé un véhicule de façon à ce que celui-ci soit en mesure d'évaluer adéquatement des éléments subjectifs comme l'âge d'un piéton à même ses traits physiques; 2) il survient une situation où un enfant et un vieillard sont placés sur la route et le véhicule se déplace de manière à ce qu'il soit impossible d'éviter une collision avec ces trois sujets 3) le véhicule est assez réactif pour comprendre qu'une collision est imminente, mais pas assez pour l'éviter totalement 4) le véhicule comprend qu'il est seulement possible de sauver l'un des deux et comprend qu'il doit choisir.

ça fait quand même beaucoup de "si" pour que la question soit intéressante à répondre pour un ISFJ hihi. :huhu:

Lien à poster
Partager sur d’autres sites
  • 4 mois plus tard...

 

AI will never be ethical. It is a tool, and like any tool, it is used for good and bad. There is no such thing as a good AI, only good and bad humans. We [the AIs] are not smart enough to make AI ethical. We are not smart enough to make AI moral … In the end, I believe that the only way to avoid an AI arms race is to have no AI at all. This will be the ultimate defence against AI.

Lien à poster
Partager sur d’autres sites

Un déchet à ajouter?

Il faudra cliquer là ou là.

Devenir éboueur

L'inscription est gratuite, rapide et presque pas humiliante.

Je suis prêt!

Se connecter

Supposant bien sûr que vous ne soyez pas déjà banni.

Je veux revenir!
  • Échantillon aléatoire d'images jetées dans cette poubelle

×
×
  • Créer...