SimpleText@CLEF-2021 Tâches pilotes


SimpleText@CLEF-2021 Tâches pilotes

Accueil Appel à communication Dates importantes Tâches pilotes  
Programme Publications Organisation Contacts

Directives pour les tâches pilotes de SimpleText

Nous vous invitons à soumettre aussi bien des passages automatiques que manuels ! Les interventions manuelles doivent être signalées.



Tâche pilote 3 : Simplification de textes scientifiques – Simplification de la langue

L’objectif de cette tâche pilote est de fournir une version simplifiée des passages de texte. Les participants recevront des requêtes et des résumés d’articles scientifiques. Les résumés peuvent être divisés en phrases comme dans l’exemple : https://guacamole.univ-avignon.fr/nextcloud/index.php/s/SQTdS2Yowf9dxNa.

Format de sortie :

Passages simplifiés dans un fichier TSV tabulé avec les champs suivants :

  • run_id : ID du passage commençant par team_id_
  • manual : Si l’exécution est manuelle {0,1}
  • topic_id : ID du sujet
  • topic_text : Sujet
  • source_passage : Texte du passage source
  • simplified_passage : Texte du passage simplifié

run_id      manual      topic_id      topic_text      doc_id      source_passage      simplified_passage

Évaluation

Les passages simplifiés seront évalués manuellement avec l’utilisation éventuelle de métriques d’agrégation.

Exemple de SORTIE :

run_id manual topic_id topic_text doc_id source_passage simplified_passage
BTU 1 1 Digital assistants like Siri and Alexa entrench gender biases, says UN 3003409254 Automated decision making based on big data and machine learning (ML) algorithms can result in discriminatory decisions against certain protected groups defined upon personal data like gender, race, sexual orientation etc. Such algorithms designed to discover patterns in big data might not only pick up any encoded societal biases in the training data, but even worse, they might reinforce such biases resulting in more severe discrimination. Automated decision-making may include sexist and racist biases and even reinforce them because their algorithms are based on the most prominent social representation in the dataset they use.