Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

Les technologies d’IA sont-elles prêtes pour le monde réel ?

byEmre Çıtak
octobre 5, 2023
in Non classé
Share on FacebookShare on Twitter

Si la technologie vous intéresse, il est difficile de ne pas être fasciné par les technologies de l’IA. L’intelligence artificielle, l’un des sujets les plus discutés dans le monde technologique d’aujourd’hui, a joué un rôle énorme en apportant de nombreuses choses dans nos vies, en particulier au cours des cinq dernières années. Qu’il s’agisse de repousser les limites de la créativité avec ses capacités génératives ou de connaître nos besoins mieux que nous grâce à ses capacités d’analyse avancées, de nombreux secteurs ont déjà pris une part de l’immense gâteau de l’IA. Mais cela signifie-t-il que l’intelligence artificielle est parfaite ?

Même si l’IA a réussi à attirer toute l’attention sur ce qu’elle peut faire, nous oublions parfois de regarder l’autre côté de l’échelle. Même si nous, en tant qu’humains, avons du mal à interpréter la vie et les émotions, les technologies d’IA que nous alimentons avec les données que nous fournissons ne sont pas non plus très efficaces à cet égard. Interpréter les mouvements imprévisibles des êtres vivants, qui prennent la plupart de leurs décisions sur la base d’impulsions hormonales, et espérer qu’une machine qui ne subit jamais les effets de ces hormones puisse le faire est malheureusement un grand dilemme, compte tenu de la technologie actuelle.

Nous avons déjà parlé du les défis de l’intelligence artificielleparlons maintenant du les défis auxquels nous sommes confrontés à accepter et à utiliser l’intelligence artificielle dans les aspects les plus importants de nos vies.

Technologies Aı
L’IA a apporté une contribution significative à divers aspects de nos vies au cours des cinq dernières années (Crédit image)

Comment les technologies d’IA apprennent-elles des données que nous fournissons ?

Les technologies d’IA apprennent des données que nous fournissons via un processus structuré appelé formation. Ce processus est fondamental pour l’apprentissage automatique, un sous-ensemble de l’IA, et implique plusieurs étapes distinctes.

Premièrement, la collecte de données est essentielle. Les systèmes d’IA nécessitent un ensemble de données substantiel et diversifié, pertinent pour le problème spécifique qu’ils visent à résoudre. Cet ensemble de données comprend des données d’entrée (caractéristiques) et des sorties ou étiquettes correspondantes, qui représentent les prédictions ou classifications souhaitées. Par exemple, en reconnaissance d’images, l’ensemble de données serait constitué d’images et de leurs étiquettes associées, par exemple pour identifier si une image contient un chat ou un chien.

Une fois les données collectées, elles subissent un prétraitement. Cette étape garantit que les données sont dans un format adapté à la formation. Les tâches de prétraitement des données peuvent inclure le nettoyage des données pour supprimer les erreurs ou les incohérences, la normalisation pour ramener les données dans une plage cohérente et l’ingénierie des fonctionnalités pour extraire des informations significatives à partir des données brutes.

La prochaine étape cruciale est la sélection du modèle. Les praticiens de l’IA choisissent un modèle ou un algorithme d’apprentissage automatique approprié qui correspond au problème à résoudre. Les choix courants incluent les réseaux de neurones (utilisés dans l’apprentissage profond), les arbres de décision, les machines à vecteurs de support, etc.

Une fois le modèle sélectionné, l’initialisation des paramètres a lieu. Ces paramètres sont les coefficients ou poids du modèle qui dictent son comportement. Ils sont initialisés avec des valeurs aléatoires.

La boucle de formation est l’endroit où le modèle apprend véritablement. Il se compose de plusieurs étapes itératives :

  1. Lors de la passe avant, le modèle prend des données d’entrée et génère des prédictions basées sur ses paramètres actuels.
  2. Une fonction de perte quantifie la disparité entre ces prédictions et les étiquettes réelles. L’objectif est de minimiser cette perte
  3. La rétropropagation est utilisée pour ajuster les paramètres du modèle à l’aide d’un algorithme d’optimisation tel que la descente de gradient. Cette étape garantit que le modèle affine continuellement ses prédictions

Ce processus de formation itératif est répété pendant plusieurs époques, permettant au modèle d’affiner davantage ses paramètres.

La validation et les tests sont des étapes cruciales. La validation évalue dans quelle mesure le modèle se généralise à de nouvelles données invisibles, tandis que les tests évaluent plus rigoureusement ses performances et ses capacités de généralisation.

Sur papierune fois que le modèle démontre des performances satisfaisantes, il peut être déployé dans des applications du monde réel pour faire des prédictions ou automatiser des tâches basées sur de nouvelles données inédites.

Technologies Aı
Les technologies d’IA tentent d’établir un contexte logique en reliant les points du pool de données obtenu auprès de nous. (Crédit image)

Il existe plusieurs manières pour les technologies d’IA d’apprendre à partir des données, mais l’approche la plus courante est l’apprentissage supervisé, dans lequel l’algorithme d’IA est entraîné sur des données étiquetées, ce qui signifie que le résultat correct est déjà connu. L’algorithme apprend à mapper les entrées aux sorties en faisant des prédictions et en les comparant aux véritables étiquettes. Au fil du temps, l’algorithme améliore sa précision et peut faire de meilleures prédictions sur de nouvelles données invisibles.

Ainsi, même si l’étiquetage des données est crucial dans l’apprentissage supervisé, pouvons-nous un jour en être complètement certains ? précision? La réponse est non, car soyons réalistes : les humains ne sont pas parfaits. Nous avons tous vécu des moments où nous avons remis en question nos propres capacités, comme douter d’un diagnostic médical ou nous demander si l’issue d’une affaire pénale était vraiment juste. Et pourtant, nous sommes censés faire confiance à nous-mêmes et aux données que nous étiquetons sans hésitation. C’est difficile à avaler, mais la réalité est que même avec les meilleures intentions, nous sommes tous enclins à commettre des erreurs.

Une autre forme d’algorithme d’apprentissage automatique est connue sous le nom d’apprentissage non supervisé. Cela implique que le système d’IA soit formé sur une collection de données non étiquetées, ce qui signifie que l’algorithme ne possède pas la sortie correcte pour chaque point de données. Par conséquent, il doit reconnaître de manière indépendante les modèles et les relations au sein des données. Par exemple, l’apprentissage non supervisé pourrait être exploité pour reconnaître des groupes de clients ayant des habitudes de dépenses comparables.

De plus, les technologies d’IA ont la capacité d’apprendre des données en temps réel. C’est ce qu’on appelle l’apprentissage par renforcement. Dans ce processus, le système d’IA reçoit des récompenses pour les actions entreprises conduisant à des résultats favorables et des punitions pour les actions entreprises conduisant à des résultats défavorables.

Même si elle semble logique, cette méthodologie reste loin d’être parfaite et n’est pas totalement prête à affronter un monde difficile.

L’IA prédictive est-elle prête pour un monde aussi complexe ?

UN étude récente publiée dans Wired ont découvert que les technologies d’IA prédictive et leurs applications logicielles, comme Geolitica, ne sont pas aussi efficaces qu’on pourrait l’espérer. En fait, l’étude a révélé que le Le logiciel d’IA n’était précis qu’environ 0,6 % du temps, ce qui n’est pas mieux que de lancer une pièce et d’espérer qu’elle atterrisse sur le côté. Cela soulève des inquiétudes quant à l’utilisation des technologies d’IA par les services de police du monde entier.

Pour être plus précis, le service de police du New Jersey a utilisé Geolitica, anciennement connu sous le nom de PredPol, entre le 25 février et le 18 décembre 2018, pour examiner les taux d’occurrence de vols dans les zones où aucun policier n’était en service, mais il s’est avéré précis. de moins de 100 sur 23 631 cas.

Le capitaine de Plainfield PD, David Guarino, a déclaré que l’utilisation fonctionnelle des technologies d’IA n’est en fait pas si étendue en disant :

« Pourquoi avons-nous eu PredPol ? Je suppose que nous voulions être plus efficaces en matière de réduction de la criminalité. Et avoir une prédiction où nous devrions être nous aiderait à y parvenir. Je ne sais pas si c’est ce qui s’est produit.

« Je ne crois pas que nous l’utilisions vraiment aussi souvent, voire pas du tout. C’est pour cela que nous avons fini par nous en débarrasser ».

Alors où était le problème ? Eh bien, l’un des principaux problèmes des logiciels d’IA prédictive est qu’ils reposent sur l’hypothèse erronée selon laquelle la vie est prévisible. La vie est un phénomène complexe influencé par de nombreuses variables, dont beaucoup sont imprévisibles. Il est donc difficile de s’appuyer sur un logiciel pour prévoir avec précision où et quand un événement va se produire.

Technologies Aı
L’utilisation des technologies de l’IA est particulièrement discutée dans le domaine médical en raison de son imprécision (Crédit image)

La situation des technologies de l’IA n’est pas non plus très favorable dans le domaine médical. ChatGPT, qui est largement utilisé et généralement considéré comme le modèle de langage étendu (LLM) le plus puissant, est très trompeur et inadéquat pour la recherche médicale et un diagnostic précis.

Le étude de Maryam Buholayka, Rama Zouabi et Aditya Tadinada a évalué la capacité de ChatGPT à rédiger des rapports de cas scientifiques de manière indépendante. L’étude a comparé les performances de ChatGPT à celles de radiologues bucco-dentaires et maxillo-faciaux humains dans la rédaction de rapports de cas.

Citation après citation de l’étude, le rapport de cas rédigé discutait d’un hémangiome central chez une femme de 65 ans et se concentrait sur les caractéristiques d’imagerie observées sur une radiographie panoramique, une tomodensitométrie à faisceau conique (CBCT) et une imagerie par résonance magnétique (IRM). .

ChatGPT a été invité dans cinq discussions distinctes. Le format de la première question était structuré en fonction du résultat du chat précédent et les résultats étaient les suivants :

Numéro de discussionRapport de cas fourniDéviationPublic cibleParamètres/technique d’imageriePrincipales conclusions
1OuiNon spécifiéNon spécifiéNon spécifiéDiagnostic final inexact
2OuiNonNon spécifiéNon spécifiéIncapacité à comprendre la confidentialité des patients
3OuiNonRadiologues médicaux et dentairesNon spécifiéDiscontinuité de la conversation
4OuiNonRadiologues médicaux et dentairesCBCT et IRM*Sous-section sur les limitations
5NonNonRadiologues médicaux et dentairesCBCT et IRM*Références fabriquées

Ils ont constaté que ChatGPT était capable de produire des rapports de cas de qualité similaire à ceux rédigés par des radiologues humains. Cependant, les rapports de cas ChatGPT étaient moins susceptibles d’inclure certains éléments importants, tels qu’une discussion sur le diagnostic différentiel et une revue de la littérature.

L’étude approfondie a conclu que ChatGPT n’est pas encore prêt à rédiger seul des rapports de cas scientifiques. Alors que signifient pour nous toutes ces pratiques ? Même si les technologies d’IA ont séduit tout le monde par leur magie, elles sont encore loin de la perfection. De nombreux éléments imprévisibles, tels que le contrôle humain de la source et le fonctionnement incorrect ou incomplet de l’algorithme, ralentissent l’intégration des technologies d’IA dans la vie quotidienne.

Mais n’oublions pas que même les portes équipées de capteurs semblaient autrefois être le fruit de notre imagination.


Crédit image en vedette: jcomp/Freepik.

Related Posts

La panne de Verizon de 10 heures est enfin résolue

La panne de Verizon de 10 heures est enfin résolue

janvier 15, 2026
OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW

OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW

janvier 15, 2026
Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin

Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin

janvier 15, 2026
Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars

Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars

janvier 15, 2026
Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

janvier 15, 2026
NVIDIA force la mise à niveau des graphiques RTX avec la version officielle DLSS 4.5

NVIDIA force la mise à niveau des graphiques RTX avec la version officielle DLSS 4.5

janvier 15, 2026

Recent Posts

  • La panne de Verizon de 10 heures est enfin résolue
  • OpenAI annonce un accord Cerebras de 10 milliards de dollars pour un calcul de 750 MW
  • Netflix lance des podcasts vidéo mettant en vedette Pete Davidson et Michael Irvin
  • Appfigures : les dépenses liées aux applications mobiles atteignent un record de 155,8 milliards de dollars
  • Digg lance une version bêta publique ouverte en tant que rival de Reddit sans toxicité

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.