Datasets:
Tasks:
Token Classification
Modalities:
Text
Formats:
parquet
Languages:
French
Size:
10K - 100K
License:
language: | |
- fr | |
license: cc-by-sa-3.0 | |
size_categories: | |
- 10K<n<100K | |
task_categories: | |
- token-classification | |
tags: | |
- pos | |
- DFP | |
- french prompts | |
annotations_creators: | |
- found | |
language_creators: | |
- found | |
multilinguality: | |
- monolingual | |
source_datasets: | |
- universal_dependencies_fr_pud | |
# universal_dependencies_fr_pud_fr_prompt_pos | |
## Summary | |
**universal_dependencies_fr_pud_fr_prompt_pos** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP). | |
It contains **21,000* rows that can be used for a part-of-speech task. | |
The original data (without prompts) comes from the dataset [universal_dependencies](https://huggingface.co/datasets/universal_dependencies) where only the French pud split has been kept. | |
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al. | |
## Prompts used | |
### List | |
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement. | |
``` | |
'Extraire les classes des mots du texte suivant : '+text, | |
'Extrais les classes des mots du texte suivant : '+text, | |
'Extrayez les classes des mots du texte suivant : '+text, | |
'Isoler les classes des mots du texte suivant : '+text, | |
'Isole les classes des mots du texte suivant : '+text, | |
'Isolez les classes des mots du texte suivant : '+text, | |
'Dégager les classes des mots dans le texte : '+text, | |
'Dégage les classes des mots dans le texte : '+text, | |
'Dégagez les classes des mots dans le texte : '+text, | |
'Générer les classes des mots issues du texte suivant : '+text, | |
'Génère les classes des mots issues du texte suivant : '+text, | |
'Générez les classes des mots issues du texte suivant : '+text, | |
'Trouver les classes des mots du texte : '+text, | |
'Trouve les classes des mots du texte : '+text, | |
'Trouvez les classes des mots du texte : '+text, | |
'Repérer les classes des mots présentes dans le texte suivant : '+text, | |
'Repère les classes des mots présentes dans le texte suivant : '+text, | |
'Repérez les classes des mots présentes dans le texte suivant : '+text, | |
'Indiquer les classes des mots du texte :'+text, | |
'Indique les classes des mots du texte : '+text, | |
'Indiquez les classes des mots du texte : '+text | |
``` | |
### Features used in the prompts | |
In the prompt list above, `text` and `targets` have been constructed from: | |
``` | |
fr_pud = load_dataset('universal_dependencies', 'fr_pud') | |
# text | |
fr_pud['test']['tokens'] = list(map(lambda i: ' '.join(fr_pud['test']['tokens'][i]), range(len(fr_pud['test']['tokens'])))) | |
# targets | |
fr_pud['test']['upos'] = list(map(lambda x: x.replace("[","").replace("]","").replace('17','AUX').replace('16','VERB').replace('15','INTJ').replace('14','ADV').replace('13','_').replace('12','X').replace('11','PRON').replace('10','PROPN').replace('9','CCONJ').replace('8','DET').replace('7','PART').replace('6','ADJ').replace('5','SCONJ').replace('4','SYM').replace('3','NUM').replace('2','ADP').replace('1','PUNCT').replace('0','NOUN'), map(str,fr_pud['test']['upos']))) | |
``` | |
# Splits | |
- `train` with 21,000 samples | |
- no `valid` split | |
- no `test` split | |
# How to use? | |
``` | |
from datasets import load_dataset | |
dataset = load_dataset("CATIE-AQ/universal_dependencies_fr_pud_fr_prompt_pos") | |
``` | |
# Citation | |
## Original data | |
> Contributors: Hans Uszkoreit, Vivien Macketanz, Aljoscha Burchardt, Kim Harris, Katrin Marheinecke, Slav Petrov, Tolga Kayadelen, Mohammed Attia, Ali Elkahky, Zhuoran Yu, Emily Pitler, Saran Lertpradit, Jana Strnadová, Gauthier Caron, Martin Popel, Daniel Zeman, Marie-Catherine de Marneffe, Bruno Guillaume. | |
## This Dataset | |
## License | |
CC BY-SA 3.0 |