On ne peut pas "fermer" une technologie. Le terme ne veut rien dire. Autant assumer franchement les vélléités de l'interdire.
Pour ma part je l'utilise beaucoup pour coder, sur des framework inconnus. Si elle a été bien entraînée, elle accélère grandement l'apprentissage, avec des erreurs heureusement. Là j'apprends avec l'aide de ChatGPT Omeka, une sorte de Drupal des données de collection et de bibliothèque, basé sur Zend/Laminas et avance vite grâce à elle (en même temps la technologie est proche de ce que je connais déjà). Elle identifie bien le niveau de l'interlocuteur (et probablement le conserve dans une base de données non anonymisée).
J'ai remarqué que ChatGPT tend à répondre plus que ce qu'on lui demande (en quelque sorte surspécifier les besoins), en mémorisant les échanges précédents, comme pour créer une addiction, ou une dépendence (d'autant qu'avec le temps les restrictions de l'usage gratuit évoluent d'abord il renvoie vers un version dégradée, présentée comme moins performant que le modèle accessible par défaut, même si la différence n'est pas palpable, là il bloque complètement pendant deux heures) .
A ce stade les deux principaux risques que j'identifie pour des informaticiens (ou même d'autres métiers liés à l'ingénierie ou à la création avec une composante techniques) sont: - moins le remplacement des humains que leur surveillance et l'évaluation d'un rendement non seulement quantitatif mais aussi qualitatif (on parle d'intégrer l'IA à des IDE). Il y a aussi un risque de conflits entre l'homme et l'humain (elle proposedéjà des solutions apparemment viables pour un regard extérieur, mais impraticable dans une situation donnée - cela amène alors l'humain à préciser le problème et fournir plus de données potentiellement sensibles, sans doute collectées, autre problème). ChatGPT n'aime pas JQuery par exemple, qu'elle considère comme dépassé, et en fait incidemment la remarque à chaque proposition. ChatGPT est assez bonne pour trancher (voire arbitrer) à un niveau général entre de grandes solutions technologiques, et proposer du code potentiellement fonctionnel (mais partiel), mais calle sur les niveaux d'analyse intermédiaires (l'application complètes avec à la fois la logique méier et l'ergonomie) -il y aussi un risque de perte d'expertise de l'humain, et de plafonnement du progrés technologie, de création de routines et de propagation d'erreurs transformées en phénomènes culturels (vu qu'elle est entraînée en convergeant vers un état statique, visant à l'exhaustivité, défini à partir des connaissances actuelles)
J'ai aussi trouvé des modèles chinois (Qwen) accessibles sur Hugging Face, vraiment impressionnants pour l'OCR de textes manuscrits (même en français)
|