Müller a écrit:
Les stats sur les suicides en France sont plutôt stables, majoritairement des hommes. Facilement accessibles qui plus est.
Puck a écrit:
Là on est face à un truc qui existe depuis trois ans à peine sous la forme qu'on connaît et enchaine les incidents de ce type. Peu importe ce qu'on peut penser de la faiblesse d'esprit de quiconque ou philosopher dessus, ce degré d'erreur et de risque mériterait une fermeture immédiate de l'outil et sa disposition au grand public.
Je ne sais pas. Comme je l'ai précisé plus haut, je n'ai pas d'opinion tranchée sur le sujet.
Je sais en revanche que le suicide est l'aboutissement de deux cas de figure : un projet préparé et scénarisé à l'avance, souvent en secret, ou alors une pulsion soudaine qualifiée de "raptus", un passage à l'acte qui sort de nulle part.
Il y a évidemment un effort de programmation à faire en matière de prévention. L'IA devrait automatiquement réagir à certains mots-clefs pour proposer les numéros d'urgence à appeler si un utilisateur commence à parler de ça. Il y a de quoi s'étonner que ça ne soit pas déjà le cas.
J'entends que ton avis ne soit pas tranché.
Le truc c'est que l'IA est amenée à traiter à priori qu'avec l'humain avec de plus en plus de responsabilités qui lui sont données. Les U.S. parlent même de lui confier une partie du programme nucléaire. Il est là le souci.
Évidemment que le cas cité ici, même s'il se multipliait par 10 serait objectivement un fait divers. Mais comme tout fait divers/vague de fait divers, il y a un liant, et c'est l'IA. Ne pas prendre ça en compte est foutrement dangereux.
Un type qui veut se buter se butera quand même, mais est ce que t'as vraiment envie que ce soit avec l'aide d'un outil qui est utilisé dans le militaire, la sécurité, etc ?
C'est là que mon avis se tranche de mon côté.