Une chose que j'ai remarquée en suivant l'espace de l'intelligence artificielle est combien d'attention est portée aux modèles d'intelligence artificielle. Chaque mois, un nouveau système d'intelligence artificielle apparaît qui obtient de meilleurs résultats aux tests ou produit des résultats plus propres et la conversation se transforme rapidement en compétition entre les modèles d'intelligence artificielle.
Plus j'étudie comment ces systèmes d'intelligence artificielle sont réellement utilisés, plus il semble que la capacité n'est pas le plus grand défi. La confiance dans l'intelligence artificielle l'est.
À mesure que les modèles d'intelligence artificielle deviennent plus convaincants, leurs erreurs deviennent également plus difficiles à remarquer. Un système peut produire une réponse qui semble confiante et bien structurée tout en étant toujours incorrecte. Plus le langage des modèles d'intelligence artificielle s'améliore, plus ces erreurs se fondent facilement dans des résultats qui ont l'air fiables.
C'est pourquoi j'ai commencé à penser à l'intelligence artificielle moins comme un outil et plus comme une partie d'un plus grand système d'intelligence artificielle. Dans les domaines, les décisions s'appuient rarement sur une seule source. La science a l'évaluation par les pairs, la finance a les audits et l'aviation a des couches de vérifications.
La confiance dans l'intelligence artificielle peut croître de cette façon. À travers des systèmes qui peuvent questionner, vérifier et corriger leurs propres résultats d'intelligence artificielle au fil du temps.
Les modèles d'intelligence artificielle forts auront toujours de l'importance. Les systèmes construits autour des modèles d'intelligence artificielle peuvent finalement déterminer si ces modèles d'intelligence artificielle peuvent véritablement être dignes de confiance.