ChatGPT

Nouvelles

MaisonMaison / Nouvelles / ChatGPT

Aug 18, 2023

ChatGPT

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar. Vous avez un accès complet à cet article via votre institution. Les chatbots IA tels que ChatGPT sont liés à des bases de données scientifiques pour créer

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous avez un accès complet à cet article via votre institution.

Les chatbots IA tels que ChatGPT sont liés à des bases de données scientifiques pour créer des expériences de recherche conversationnelles. Crédit : Gabby Jones/Bloomberg via Getty

Les chatbots conversationnels basés sur l'IA qui sont apparus sur les moteurs de recherche Internet, tels que Bard de Google et Bing de Microsoft, semblent également de plus en plus prêts à changer la recherche scientifique. Le 1er août, le géant néerlandais de l’édition Elsevier a publié une interface d’IA basée sur ChatGPT pour certains utilisateurs de sa base de données Scopus, tandis que la société britannique Digital Science a annoncé un essai fermé d’un assistant LLM (grand langage) pour sa base de données Dimensions. Pendant ce temps, la société américaine Clarivate affirme qu'elle travaille également à intégrer les LLM dans sa base de données Web of Science.

Les LLM pour la recherche scientifique ne sont pas nouveaux : des start-ups telles que Elicit, Scite et Consensus disposent déjà de tels systèmes d'IA, qui aident à résumer les résultats d'un domaine ou à identifier les meilleures études, en s'appuyant sur des bases de données scientifiques gratuites ou (dans le cas de Scite) accès à des articles de recherche payants grâce à des partenariats avec des éditeurs. Mais les entreprises qui possèdent d’importantes bases de données propriétaires de résumés et de références scientifiques se joignent désormais à la ruée vers l’IA.

Le chatbot d'Elsevier, appelé Scopus AI et lancé en tant que pilote, est conçu comme un outil léger et ludique pour aider les chercheurs à obtenir rapidement des résumés de sujets de recherche qu'ils ne connaissent pas, explique Maxim Khan, un cadre d'Elsevier à Londres qui a supervisé le développement de l'outil. En réponse à une question en langage naturel, le robot utilise une version du LLM GPT-3.5 pour renvoyer un paragraphe de synthèse fluide sur un sujet de recherche, ainsi que des références citées et d'autres questions à explorer.

En réponse à une question textuelle, Scopus AI renvoie un résumé fluide d'un sujet de recherche ainsi que des références pertinentes.Crédit : Scopus AI

Une préoccupation concernant les LLM destinés à la recherche – en particulier la recherche scientifique – est qu'ils ne sont pas fiables. Les LLM ne comprennent pas le texte qu'ils produisent ; ils fonctionnent simplement en crachant des mots stylistiquement plausibles. Leurs résultats peuvent contenir des erreurs factuelles et des préjugés et, comme les universitaires l’ont rapidement découvert, peuvent constituer des références inexistantes.

L’IA Scopus est donc contrainte : elle a été amenée à générer sa réponse uniquement en référence à cinq ou dix résumés de recherche. L'IA ne trouve pas ces résumés elle-même : après que l'utilisateur a saisi une requête, un moteur de recherche conventionnel les renvoie comme étant pertinents pour une question, explique Khan.

De nombreux autres systèmes de moteurs de recherche IA adoptent une stratégie similaire, note Aaron Tay, bibliothécaire à la Singapore Management University qui suit les outils de recherche IA. Ceci est parfois appelé génération augmentée par récupération, car le LLM se limite à résumer les informations pertinentes récupérées par un autre moteur de recherche. «Le LLM peut encore occasionnellement halluciner ou inventer des choses», explique Tay, en soulignant les recherches sur les chatbots IA de recherche sur Internet, tels que Bing et Perplexity, qui utilisent une technique similaire.

Elsevier a limité son produit d'IA à la recherche uniquement d'articles publiés depuis 2018, afin de sélectionner des articles récents, et a demandé à son chatbot de citer de manière appropriée les résumés renvoyés dans sa réponse, d'éviter les requêtes dangereuses ou malveillantes et d'indiquer s'il y a aucune information pertinente dans les résumés qu'elle reçoit. Cela ne peut pas éviter les erreurs, mais les minimise. Elsevier a également réduit l'imprévisibilité de son IA en choisissant un réglage bas pour la « température » du robot – une mesure de la fréquence à laquelle il choisit de s'écarter des mots les plus plausibles dans sa réponse.

Les utilisateurs pourraient-ils simplement copier et coller les paragraphes du robot dans leurs propres documents, plagiant ainsi l'outil ? C'est une possibilité, dit Khan. Elsevier a jusqu'à présent résolu ce problème en demandant aux chercheurs d'utiliser les résumés de manière responsable, dit-il. Khan souligne que les bailleurs de fonds et les éditeurs ont publié des directives similaires, demandant une divulgation transparente si les LLM sont utilisés, par exemple, pour rédiger des articles ou effectuer des évaluations par les pairs, ou dans certains cas déclarant que les LLM ne devraient pas être utilisés du tout.