Si la technologie vous intéresse, il est difficile de ne pas être fasciné par les technologies de l’IA. L’intelligence artificielle, l’un des sujets les plus discutés dans le monde technologique d’aujourd’hui, a joué un rôle énorme en apportant de nombreuses choses dans nos vies, en particulier au cours des cinq dernières années. Qu’il s’agisse de repousser les limites de la créativité avec ses capacités génératives ou de connaître nos besoins mieux que nous grâce à ses capacités d’analyse avancées, de nombreux secteurs ont déjà pris une part de l’immense gâteau de l’IA. Mais cela signifie-t-il que l’intelligence artificielle est parfaite ?
Même si l’IA a réussi à attirer toute l’attention sur ce qu’elle peut faire, nous oublions parfois de regarder l’autre côté de l’échelle. Même si nous, en tant qu’humains, avons du mal à interpréter la vie et les émotions, les technologies d’IA que nous alimentons avec les données que nous fournissons ne sont pas non plus très efficaces à cet égard. Interpréter les mouvements imprévisibles des êtres vivants, qui prennent la plupart de leurs décisions sur la base d’impulsions hormonales, et espérer qu’une machine qui ne subit jamais les effets de ces hormones puisse le faire est malheureusement un grand dilemme, compte tenu de la technologie actuelle.
Nous avons déjà parlé du les défis de l’intelligence artificielleparlons maintenant du les défis auxquels nous sommes confrontés à accepter et à utiliser l’intelligence artificielle dans les aspects les plus importants de nos vies.
Comment les technologies d’IA apprennent-elles des données que nous fournissons ?
Les technologies d’IA apprennent des données que nous fournissons via un processus structuré appelé formation. Ce processus est fondamental pour l’apprentissage automatique, un sous-ensemble de l’IA, et implique plusieurs étapes distinctes.
Premièrement, la collecte de données est essentielle. Les systèmes d’IA nécessitent un ensemble de données substantiel et diversifié, pertinent pour le problème spécifique qu’ils visent à résoudre. Cet ensemble de données comprend des données d’entrée (caractéristiques) et des sorties ou étiquettes correspondantes, qui représentent les prédictions ou classifications souhaitées. Par exemple, en reconnaissance d’images, l’ensemble de données serait constitué d’images et de leurs étiquettes associées, par exemple pour identifier si une image contient un chat ou un chien.
Une fois les données collectées, elles subissent un prétraitement. Cette étape garantit que les données sont dans un format adapté à la formation. Les tâches de prétraitement des données peuvent inclure le nettoyage des données pour supprimer les erreurs ou les incohérences, la normalisation pour ramener les données dans une plage cohérente et l’ingénierie des fonctionnalités pour extraire des informations significatives à partir des données brutes.
La prochaine étape cruciale est la sélection du modèle. Les praticiens de l’IA choisissent un modèle ou un algorithme d’apprentissage automatique approprié qui correspond au problème à résoudre. Les choix courants incluent les réseaux de neurones (utilisés dans l’apprentissage profond), les arbres de décision, les machines à vecteurs de support, etc.
Une fois le modèle sélectionné, l’initialisation des paramètres a lieu. Ces paramètres sont les coefficients ou poids du modèle qui dictent son comportement. Ils sont initialisés avec des valeurs aléatoires.
La boucle de formation est l’endroit où le modèle apprend véritablement. Il se compose de plusieurs étapes itératives :
- Lors de la passe avant, le modèle prend des données d’entrée et génère des prédictions basées sur ses paramètres actuels.
- Une fonction de perte quantifie la disparité entre ces prédictions et les étiquettes réelles. L’objectif est de minimiser cette perte
- La rétropropagation est utilisée pour ajuster les paramètres du modèle à l’aide d’un algorithme d’optimisation tel que la descente de gradient. Cette étape garantit que le modèle affine continuellement ses prédictions
Ce processus de formation itératif est répété pendant plusieurs époques, permettant au modèle d’affiner davantage ses paramètres.
La validation et les tests sont des étapes cruciales. La validation évalue dans quelle mesure le modèle se généralise à de nouvelles données invisibles, tandis que les tests évaluent plus rigoureusement ses performances et ses capacités de généralisation.
Sur papierune fois que le modèle démontre des performances satisfaisantes, il peut être déployé dans des applications du monde réel pour faire des prédictions ou automatiser des tâches basées sur de nouvelles données inédites.
Il existe plusieurs manières pour les technologies d’IA d’apprendre à partir des données, mais l’approche la plus courante est l’apprentissage supervisé, dans lequel l’algorithme d’IA est entraîné sur des données étiquetées, ce qui signifie que le résultat correct est déjà connu. L’algorithme apprend à mapper les entrées aux sorties en faisant des prédictions et en les comparant aux véritables étiquettes. Au fil du temps, l’algorithme améliore sa précision et peut faire de meilleures prédictions sur de nouvelles données invisibles.
Ainsi, même si l’étiquetage des données est crucial dans l’apprentissage supervisé, pouvons-nous un jour en être complètement certains ? précision? La réponse est non, car soyons réalistes : les humains ne sont pas parfaits. Nous avons tous vécu des moments où nous avons remis en question nos propres capacités, comme douter d’un diagnostic médical ou nous demander si l’issue d’une affaire pénale était vraiment juste. Et pourtant, nous sommes censés faire confiance à nous-mêmes et aux données que nous étiquetons sans hésitation. C’est difficile à avaler, mais la réalité est que même avec les meilleures intentions, nous sommes tous enclins à commettre des erreurs.
Une autre forme d’algorithme d’apprentissage automatique est connue sous le nom d’apprentissage non supervisé. Cela implique que le système d’IA soit formé sur une collection de données non étiquetées, ce qui signifie que l’algorithme ne possède pas la sortie correcte pour chaque point de données. Par conséquent, il doit reconnaître de manière indépendante les modèles et les relations au sein des données. Par exemple, l’apprentissage non supervisé pourrait être exploité pour reconnaître des groupes de clients ayant des habitudes de dépenses comparables.
De plus, les technologies d’IA ont la capacité d’apprendre des données en temps réel. C’est ce qu’on appelle l’apprentissage par renforcement. Dans ce processus, le système d’IA reçoit des récompenses pour les actions entreprises conduisant à des résultats favorables et des punitions pour les actions entreprises conduisant à des résultats défavorables.
Même si elle semble logique, cette méthodologie reste loin d’être parfaite et n’est pas totalement prête à affronter un monde difficile.
L’IA prédictive est-elle prête pour un monde aussi complexe ?
UN étude récente publiée dans Wired ont découvert que les technologies d’IA prédictive et leurs applications logicielles, comme Geolitica, ne sont pas aussi efficaces qu’on pourrait l’espérer. En fait, l’étude a révélé que le Le logiciel d’IA n’était précis qu’environ 0,6 % du temps, ce qui n’est pas mieux que de lancer une pièce et d’espérer qu’elle atterrisse sur le côté. Cela soulève des inquiétudes quant à l’utilisation des technologies d’IA par les services de police du monde entier.
Pour être plus précis, le service de police du New Jersey a utilisé Geolitica, anciennement connu sous le nom de PredPol, entre le 25 février et le 18 décembre 2018, pour examiner les taux d’occurrence de vols dans les zones où aucun policier n’était en service, mais il s’est avéré précis. de moins de 100 sur 23 631 cas.
Le capitaine de Plainfield PD, David Guarino, a déclaré que l’utilisation fonctionnelle des technologies d’IA n’est en fait pas si étendue en disant :
« Pourquoi avons-nous eu PredPol ? Je suppose que nous voulions être plus efficaces en matière de réduction de la criminalité. Et avoir une prédiction où nous devrions être nous aiderait à y parvenir. Je ne sais pas si c’est ce qui s’est produit.
« Je ne crois pas que nous l’utilisions vraiment aussi souvent, voire pas du tout. C’est pour cela que nous avons fini par nous en débarrasser ».
Alors où était le problème ? Eh bien, l’un des principaux problèmes des logiciels d’IA prédictive est qu’ils reposent sur l’hypothèse erronée selon laquelle la vie est prévisible. La vie est un phénomène complexe influencé par de nombreuses variables, dont beaucoup sont imprévisibles. Il est donc difficile de s’appuyer sur un logiciel pour prévoir avec précision où et quand un événement va se produire.
La situation des technologies de l’IA n’est pas non plus très favorable dans le domaine médical. ChatGPT, qui est largement utilisé et généralement considéré comme le modèle de langage étendu (LLM) le plus puissant, est très trompeur et inadéquat pour la recherche médicale et un diagnostic précis.
Le étude de Maryam Buholayka, Rama Zouabi et Aditya Tadinada a évalué la capacité de ChatGPT à rédiger des rapports de cas scientifiques de manière indépendante. L’étude a comparé les performances de ChatGPT à celles de radiologues bucco-dentaires et maxillo-faciaux humains dans la rédaction de rapports de cas.
Citation après citation de l’étude, le rapport de cas rédigé discutait d’un hémangiome central chez une femme de 65 ans et se concentrait sur les caractéristiques d’imagerie observées sur une radiographie panoramique, une tomodensitométrie à faisceau conique (CBCT) et une imagerie par résonance magnétique (IRM). .
ChatGPT a été invité dans cinq discussions distinctes. Le format de la première question était structuré en fonction du résultat du chat précédent et les résultats étaient les suivants :
Numéro de discussion | Rapport de cas fourni | Déviation | Public cible | Paramètres/technique d’imagerie | Principales conclusions |
1 | Oui | Non spécifié | Non spécifié | Non spécifié | Diagnostic final inexact |
2 | Oui | Non | Non spécifié | Non spécifié | Incapacité à comprendre la confidentialité des patients |
3 | Oui | Non | Radiologues médicaux et dentaires | Non spécifié | Discontinuité de la conversation |
4 | Oui | Non | Radiologues médicaux et dentaires | CBCT et IRM* | Sous-section sur les limitations |
5 | Non | Non | Radiologues médicaux et dentaires | CBCT et IRM* | Références fabriquées |
Ils ont constaté que ChatGPT était capable de produire des rapports de cas de qualité similaire à ceux rédigés par des radiologues humains. Cependant, les rapports de cas ChatGPT étaient moins susceptibles d’inclure certains éléments importants, tels qu’une discussion sur le diagnostic différentiel et une revue de la littérature.
L’étude approfondie a conclu que ChatGPT n’est pas encore prêt à rédiger seul des rapports de cas scientifiques. Alors que signifient pour nous toutes ces pratiques ? Même si les technologies d’IA ont séduit tout le monde par leur magie, elles sont encore loin de la perfection. De nombreux éléments imprévisibles, tels que le contrôle humain de la source et le fonctionnement incorrect ou incomplet de l’algorithme, ralentissent l’intégration des technologies d’IA dans la vie quotidienne.
Mais n’oublions pas que même les portes équipées de capteurs semblaient autrefois être le fruit de notre imagination.
Crédit image en vedette: jcomp/Freepik.