pipeline_tag
stringclasses 48
values | library_name
stringclasses 198
values | text
stringlengths 1
900k
| metadata
stringlengths 2
438k
| id
stringlengths 5
122
| last_modified
null | tags
listlengths 1
1.84k
| sha
null | created_at
stringlengths 25
25
| arxiv
listlengths 0
201
| languages
listlengths 0
1.83k
| tags_str
stringlengths 17
9.34k
| text_str
stringlengths 0
389k
| text_lists
listlengths 0
722
| processed_texts
listlengths 1
723
|
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
text2text-generation
|
transformers
|
# IT5 Base for Question Generation 💭 🇮🇹
This repository contains the checkpoint for the [IT5 Base](https://huggingface.co/gsarti/it5-base) model fine-tuned on question generation on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qg = pipeline("text2text-generation", model='it5/it5-base-question-generation')
qg("Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto più autorevole di allora è venuto dalla facoltà di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che causò una "grande pestilenza nell\' aria". Questa relazione è diventata la prima e più diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria più accettata. Oggi, questo è conosciuto come la teoria di Miasma. La parola "peste" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che è diventato il termine medico. Risposta: re di Francia")
>>> [{"generated_text": "Per chi è stato redatto il referto medico?"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-base-question-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-base-question-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "question-generation", "squad_it", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto pi\u00f9 autorevole di allora \u00e8 venuto dalla facolt\u00e0 di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che caus\u00f2 una \"grande pestilenza nell' aria\". Questa relazione \u00e8 diventata la prima e pi\u00f9 diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria pi\u00f9 accettata. Oggi, questo \u00e8 conosciuto come la teoria di Miasma. La parola \"peste\" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che \u00e8 diventato il termine medico. Risposta: re di Francia"}, {"text": "Il 14 aprile 2011, ABC ha annullato le lunghe opere di sapone All My Children e One Life to Live dopo 41 e 43 anni in onda, rispettivamente (in seguito al contraccolpo dei tifosi, ABC ha venduto i diritti ad entrambi gli spettacoli a Prospect Park, che alla fine ha rilanciato i saponi su Hulu per un' ulteriore stagione nel 2013 e con entrambe le societ\u00e0 che si citano in giudizio per accuse di interferenza con il processo di rilancio degli spettacoli, mancato pagamento delle tasse di licenza. Il talk/lifestyle show che ha sostituito One Life to Live, The Revolution, non \u00e8 riuscito a generare giudizi soddisfacenti ed \u00e8 stato a sua volta annullato dopo soli sette mesi. La stagione 2011-12 ha visto l' ABC cadere al quarto posto nel 18-49 demografico nonostante rinnovando una manciata di nuovi spettacoli (compresi i drammi matricole Scandal, Revenge e Once Upon a Time) per la seconda stagione. Risposta: Hulu"}, {"text": "L' American Broadcasting Company (ABC) (stlized nel suo logo come abc dal 1957) \u00e8 una rete televisiva commerciale americana trasmissione televisiva che \u00e8 di propriet\u00e0 del Disney-ABC Television Group, una controllata della divisione Disney Media Networks di The Walt Disney Company. La rete fa parte delle grandi reti televisive Big Three. La rete ha sede a Columbus Avenue e West 66th Street a Manhattan, con ulteriori uffici e stabilimenti di produzione a New York City, Los Angeles e Burbank, California. Risposta: Manhattan"}, {"text": "La disobbedienza civile non rivoluzionaria \u00e8 una semplice disobbedienza delle leggi sulla base del fatto che sono giudicate \"sbagliate\" da una coscienza individuale, o come parte di uno sforzo per rendere alcune leggi inefficaci, per causarne l' abrogazione, o per esercitare pressioni per ottenere i propri desideri politici su qualche altra questione. La disobbedienza civile rivoluzionaria \u00e8 pi\u00f9 che altro un tentativo attivo di rovesciare un governo (o di cambiare le tradizioni culturali, i costumi sociali, le credenze religiose, ecc. La rivoluzione non deve necessariamente essere politica, cio\u00e8 \"rivoluzione culturale\", implica semplicemente un cambiamento radicale e diffuso in una sezione del tessuto sociale). Gli atti di Gandhi sono stati descritti come disobbedienza civile rivoluzionaria. \u00c8 stato affermato che gli ungheresi sotto Ferenc De\u00e1k hanno diretto una disobbedienza civile rivoluzionaria contro il governo austriaco. Thoreau ha anche scritto di disobbedienza civile realizzando \"rivoluzione pacifica\". Howard Zinn, Harvey Wheeler e altri hanno identificato il diritto sposato nella Dichiarazione d' Indipendenza di \"alterare o abolire\" un governo ingiusto come principio di disobbedienza civile. Risposta: Ferenc De\u00e1k"}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-base-question-generation", "results": [{"task": {"type": "question-generation", "name": "Question generation"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "rouge1", "value": 0.382, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.199, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.354, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.516, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-base-question-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"question-generation",
"squad_it",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Base for Question Generation 🇮🇹
This repository contains the checkpoint for the IT5 Base model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Base for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Base model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Base for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Base model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Base for News Headline Style Transfer (Repubblica to Il Giornale) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Base](https://huggingface.co/gsarti/it5-base) model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
r2g = pipeline("text2text-generation", model='it5/it5-base-repubblica-to-ilgiornale')
r2g("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-base-repubblica-to-ilgiornale")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-base-repubblica-to-ilgiornale")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-base-repubblica-to-ilgiornale", "results": [{"task": {"type": "headline-style-transfer-repubblica-to-ilgiornale", "name": "Headline style transfer (Repubblica to Il Giornale)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.272, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.089, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.235, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.396, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.883, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.88, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/it5-base-repubblica-to-ilgiornale
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Base for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹
This repository contains the checkpoint for the IT5 Base model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Base for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Base model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Base for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Base model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# IT5 Base for Wikipedia Summarization 📑 🇮🇹
This repository contains the checkpoint for the [IT5 Base](https://huggingface.co/gsarti/it5-base) model fine-tuned on Wikipedia summarization on the [WITS](https://www.semanticscholar.org/paper/WITS%3A-Wikipedia-for-Italian-Text-Summarization-Casola-Lavelli/ad6c83122e721c7c0db4a40727dac3b4762cd2b1) dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
hg = pipeline("text2text-generation", model='it5/it5-base-wiki-summarization')
hg("Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale è separata dal passaggio Rodman. La sua altezza è di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola è presente il rifugio Guillochon, sito storico antartico. "
- text: "Vanni ha la sua prima mostra personale nel 1948, alla Galleria Margherita di Roma. Nel 1949 vince una borsa di studio che lo porterà a studiare ad Amsterdam sotto la guida del pittore neoplastico Friedrich Vordemberge-Gildewart. Nel 1952 vince una Fulbright Scholarship che lo porterà a studiare in America, alla Yale University, sotto la guida di Josef Albers. Dal 1953 al 1960 si stabilisce a Parigi, dove illustra alcuni libri per bambini che in seguito vinceranno il premio del Club des Editeurs. Nel 1954 lavora come consulente del colore per il documentario su Picasso di Luciano Emmer, e nel 1955 comincia la sua lunga collaborazione con la Galleria Schneider, affiancando artisti come Corrado Cagli. Dal 1969 al 1974 lavora su dei bassorilievi in vetro resina sui quali vengono proiettati dei film astratti da lui creati, per creare dei quadri che si trasformino continuamente nel tempo. Nel 1979 lascia Roma per stabilirsi a New York, dove alla carriera di pittore affiancherà quella di professore per la prestigiosa Cooper Union School of Art, dove insegnerà ininterrottamente dal 1984 al 2014. L'opera pittorica di Vanni è segnata da una visione estremamente personale, lontana dalle correnti e dai movimenti che hanno caratterizzato la seconda metà del XX secolo. Memore delle lunghe conversazioni avute da Vanni nella sua primissima gioventù, con il filosofo e pittore futurista Alberto Bragaglia, le sue opere sono contrassegnate da un “eclettismo” formale programmatico, alla base del quale resta costante una conoscenza profonda delle molteplici tecniche artistiche utilizzate (tra cui il mosaico, l’affresco e la tempera ad uovo). Pur esprimendosi per lo più in cicli di opere dove l’astrazione formale è la principale componente figurativa, sono da sottolineare alcune opere dove Vanni ha dato prova di una importante padronanza dell’arte figurativa. Importanti e numerose sono le sue realizzazioni anche nel campo dell’illustrazione. Sue sono le illustrazioni per la novella ''Agostino'' di Alberto Moravia, per il libro ''Love'' di Lowell A. Siff e delle ''Contes de Cristal'' di Alice Coléno. Ha tenuto mostre personali in Italia e all’estero ed esposto in mostre collettive di rappresentanza italiana nei musei e nelle gallerie di ogni parte del mondo.")
>>> [{"generated_text": "L' '''isola di Rabot''' si trova in prossimità dell'isola di Renaud, a sud dell'Argentina."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-base-wiki-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-base-wiki-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "wikipedia", "summarization", "wits"], "datasets": ["wits"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "La 5\u00aa Commissione ha competenza per i disegni di legge riguardanti le specifiche materie del bilancio, del personale e dei servizi del Ministero dell'economia, nonch\u00e9 per i disegni di legge riguardanti la materia finanziaria. La Commissione \u00e8 composta da 26 senatori (di cui 2 segretari, 2 vicepresidenti di cui 1 componente esterno, e un presidente) scelti in modo omogeneo tra i componenti di quel ramo del Parlamento, in modo da rispecchiarne le forze politiche presenti. Essi sono scelti dai gruppi parlamentari (e non dal Presidente, come invece accade per l'organismo della Giunta parlamentare): per la nomina dei membri ciascun Gruppo, entro cinque giorni dalla propria costituzione, procede, dandone comunicazione alla Presidenza del Senato, alla designazione dei propri rappresentanti nelle singole Commissioni permanenti. Ogni senatore chiamato a far parte del governo o eletto presidente della Commissione \u00e8, per la durata della carica, sostituito dal suo gruppo nella Commissione con un altro senatore, che continuer\u00e0 ad appartenere anche alla Commissione di provenienza. Tranne in rari casi nessun Senatore pu\u00f2 essere assegnato a pi\u00f9 di una Commissione permanente. Le Commissioni permanenti sono rinnovate dopo il primo biennio della legislatura ed i loro componenti possono essere confermati."}, {"text": "Interni della chiesa Si pensa che gi\u00e0 ai tempi di Gediminas vi fosse una piccola chiesa, probabilmente in legno. Nel 1408 circa Vitoldo costru\u00ec la chiesa dello Spirito Santo che and\u00f2 in seguito ampliata. Nel 1501 Alessandro Jagellone lo don\u00f2 al monastero domenicano, il pi\u00f9 antico della Lituania, che nel 1679-88 fu ampliato e ricostruito. Di quel periodo sopravvivono le mura della chiesa, mentre l'arredamento interno fu realizzato nel 1749-1770 e la cupola affront\u00f2 dei lavori di restauro nel 1752-1760. Nel 1844 le autorit\u00e0 zariste chiusero il monastero e la chiesa divenne parrocchiale. Oggi serve la comunit\u00e0 polacca di Vilnius. Su via \u0160v. Ignoto fu fondato un monastero domenicano nel 1501. Come molti altri edifici, questo monastero fu convertito in una prigione dalle autorit\u00e0 zariste nel 1807. Costitu\u00ec un luogo di prigionia per molti patrioti lituani, nello specifico i Filareti, i quali parteciparono alle rivolte del 1831 e del 1863. Organo La chiesa si trova lateralmente rispetto alla strada e non ha una facciata principale ben disegnata. L'altezza, inclusa la cupola, \u00e8 di 51 m. La parte inferiore della facciata (con piccole torri gemelle) \u00e8 ricoperta da edifici conventuali e l'esterno presenta caratteristiche architettoniche tipiche del tardo barocco. Celebre per i fantasiosi ornamenti rococ\u00f2, l'interno della chiesa \u00e8 tra i pi\u00f9 celebri della Lituania per via dei cartigli con vari stemmi e affreschi lungo la navata: vi sono 16 altari nella chiesa. Gli altari e il pulpito sono assai decorati con sculture e ornamenti rotondi e in rilievo. Tra gli affreschi barocchi, si pensi alla composizione multi-figurale intitolata ''Apoteosi dello Spirito Santo'' (neobarocco, XIX secolo) nella cupola, 45 dipinti nella chiesa (tra cui un'immagine di Santa Barbara con un'ambientazione del XVII o XVIII secolo, una di Santa Caterina da Siena in stile rococ\u00f2 di Szymon Czechowicz, un ritratto di Alessandro Jagellone di un artista sconosciuto della seconda met\u00e0 del XVIII secolo). Un ingresso sotto l'altare conduce alle grandi volte, labirintiche, con molte stanze e cripte: i sotterranei ospitano i resti di centinaia di residenti di Vilnius, alcuni dei quali mummificatisi naturalmente, e sono circondati da leggende metropolitane. Sebbene l'esistenza dei sotterranei fosse nota, i primi sforzi per esplorare e mappare le cripte furono abbandonate nonostante lo sforzo degli studenti dell'Universit\u00e0 di Vilnius negli anni '30. Tuttavia, questi ultimi non avevano osservato le corrette procedure archeologiche e causarono infatti molti danni: il modus operandi prevedeva lo smistamento delle ossa ponendo tutti i teschi sugli scaffali e rimuovendoli le tombe. Da allora, i resti sono stati spostati molte volte lasciandoli in uno stato casuale e disorganizzato. Stando alle leggende che aleggiano sul luogo, i resti sarebbero di soldati francesi recatisi in citt\u00e0 nel corso della campagna di Russia del 1812 avviata da Napoleone Bonaparte, di vittime dell'Inquisizione o della peste nera. Pi\u00f9 romantiche risultano le affermazioni di chi sostiene che i corridoi sotterranei facevano parte di una rete di passaggi pi\u00f9 ampia che consentiva agli amanti leggendari Barbara Radziwi\u0142\u0142 e Sigismondo II Augusto di incontrarsi in segreto. Nel 2011, gli antropologi dell'Universit\u00e0 di Vilnius, guidati da Rimantas Jankauskas, avviarono uno studio sui corpi mummificati, stimando settimane dopo che le volte conservassero i resti di circa 600 persone, tra cui molte donne e bambini dalla met\u00e0 del XVIII secolo all'inizio del XIX secolo. Il team ha selezionato i cadaveri meglio conservati e ha eseguito la loro tomografia. I risultati mostrano che molte persone erano in sovrappeso e avevano l'alluce valgo, il che ha portato alla conclusione che si trattava di alti borghesi o comunque di cittadini abbienti. "}, {"text": "Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale \u00e8 separata dal passaggio Rodman. La sua altezza \u00e8 di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola \u00e8 presente il rifugio Guillochon, sito storico antartico. "}, {"text": "Vanni ha la sua prima mostra personale nel 1948, alla Galleria Margherita di Roma. Nel 1949 vince una borsa di studio che lo porter\u00e0 a studiare ad Amsterdam sotto la guida del pittore neoplastico Friedrich Vordemberge-Gildewart. Nel 1952 vince una Fulbright Scholarship che lo porter\u00e0 a studiare in America, alla Yale University, sotto la guida di Josef Albers. Dal 1953 al 1960 si stabilisce a Parigi, dove illustra alcuni libri per bambini che in seguito vinceranno il premio del Club des Editeurs. Nel 1954 lavora come consulente del colore per il documentario su Picasso di Luciano Emmer, e nel 1955 comincia la sua lunga collaborazione con la Galleria Schneider, affiancando artisti come Corrado Cagli. Dal 1969 al 1974 lavora su dei bassorilievi in vetro resina sui quali vengono proiettati dei film astratti da lui creati, per creare dei quadri che si trasformino continuamente nel tempo. Nel 1979 lascia Roma per stabilirsi a New York, dove alla carriera di pittore affiancher\u00e0 quella di professore per la prestigiosa Cooper Union School of Art, dove insegner\u00e0 ininterrottamente dal 1984 al 2014. L'opera pittorica di Vanni \u00e8 segnata da una visione estremamente personale, lontana dalle correnti e dai movimenti che hanno caratterizzato la seconda met\u00e0 del XX secolo. Memore delle lunghe conversazioni avute da Vanni nella sua primissima giovent\u00f9, con il filosofo e pittore futurista Alberto Bragaglia, le sue opere sono contrassegnate da un \u201ceclettismo\u201d formale programmatico, alla base del quale resta costante una conoscenza profonda delle molteplici tecniche artistiche utilizzate (tra cui il mosaico, l\u2019affresco e la tempera ad uovo). Pur esprimendosi per lo pi\u00f9 in cicli di opere dove l\u2019astrazione formale \u00e8 la principale componente figurativa, sono da sottolineare alcune opere dove Vanni ha dato prova di una importante padronanza dell\u2019arte figurativa. Importanti e numerose sono le sue realizzazioni anche nel campo dell\u2019illustrazione. Sue sono le illustrazioni per la novella ''Agostino'' di Alberto Moravia, per il libro ''Love'' di Lowell A. Siff e delle ''Contes de Cristal'' di Alice Col\u00e9no. Ha tenuto mostre personali in Italia e all\u2019estero ed esposto in mostre collettive di rappresentanza italiana nei musei e nelle gallerie di ogni parte del mondo. "}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-base-wiki-summarization", "results": [{"task": {"type": "wiki-summarization", "name": "Wikipedia Summarization"}, "dataset": {"name": "WITS", "type": "wits"}, "metrics": [{"type": "rouge1", "value": 0.369, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.217, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.333, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.53, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-base-wiki-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"wikipedia",
"summarization",
"wits",
"it",
"dataset:wits",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Base for Wikipedia Summarization 🇮🇹
This repository contains the checkpoint for the IT5 Base model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Base for Wikipedia Summarization 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Base model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Base for Wikipedia Summarization 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Base model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Large for Formal-to-informal Style Transfer 🤗
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
f2i = pipeline("text2text-generation", model='it5/it5-large-formal-to-informal')
f2i("Vi ringrazio infinitamente per vostra disponibilità")
>>> [{"generated_text": "e grazie per la vostra disponibilità!"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-formal-to-informal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-formal-to-informal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Questa performance \u00e8 a dir poco spiacevole."}, {"text": "In attesa di un Suo cortese riscontro, Le auguriamo un piacevole proseguimento di giornata."}, {"text": "Questa visione mi procura una goduria indescrivibile."}, {"text": "qualora ci\u00f2 possa interessarti, ti pregherei di contattarmi."}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "it5-large-formal-to-informal", "results": [{"task": {"type": "formality-style-transfer", "name": "Formal-to-informal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.611, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.409, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.586, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.613, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-large-formal-to-informal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for Formal-to-informal Style Transfer
This repository contains the checkpoint for the IT5 Large model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Large for News Headline Generation 📣 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
hg = pipeline("text2text-generation", model='it5/it5-large-headline-generation')
hg("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-headline-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-headline-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "headline-generation"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-headline-generation", "results": [{"task": {"type": "headline-generation", "name": "Headline generation"}, "dataset": {"name": "HeadGen-IT", "type": "headgen_it"}, "metrics": [{"type": "rouge1", "value": 0.308, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.113, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.27, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.43, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-large-headline-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"headline-generation",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #has_space #text-generation-inference #region-us
|
# IT5 Large for News Headline Generation 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #has_space #text-generation-inference #region-us \n",
"# IT5 Large for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Large for News Headline Style Transfer (Il Giornale to Repubblica) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
g2r = pipeline("text2text-generation", model='it5/it5-large-ilgiornale-to-repubblica')
g2r("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-ilgiornale-to-repubblica")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-ilgiornale-to-repubblica")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-ilgiornale-to-repubblica", "results": [{"task": {"type": "headline-style-transfer-ilgiornale-to-repubblica", "name": "Headline style transfer (Il Giornale to Repubblica)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.27, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.089, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.237, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.4, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.906, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.852, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/it5-large-ilgiornale-to-repubblica
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Base for Informal-to-formal Style Transfer 🧐
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
i2f = pipeline("text2text-generation", model='it5/it5-large-informal-to-formal')
i2f("nn capisco xke tt i ragazzi lo fanno")
>>> [{"generated_text": "non comprendo perché tutti i ragazzi agiscono così"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-informal-to-formal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-informal-to-formal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "maronn qualcuno mi spieg' CHECCOSA SUCCEDE?!?!"}, {"text": "wellaaaaaaa, ma frat\u00e9 sei proprio troppo simpatiko, grazieeee!!"}, {"text": "nn capisco xke tt i ragazzi lo fanno"}, {"text": "IT5 \u00e8 SUPERMEGA BRAVISSIMO a capire tt il vernacolo italiano!!!"}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "it5-large-informal-to-formal", "results": [{"task": {"type": "formality-style-transfer", "name": "Informal-to-formal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.663, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.477, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.645, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.714, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-large-informal-to-formal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Base for Informal-to-formal Style Transfer
This repository contains the checkpoint for the IT5 Large model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Base for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Base for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# IT5 Large for News Summarization ✂️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on news summarization on the [Fanpage](https://huggingface.co/datasets/ARTeLab/fanpage) and [Il Post](https://huggingface.co/datasets/ARTeLab/ilpost) corpora as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-large-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-news-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "fanpage", "ilpost", "summarization"], "datasets": ["ARTeLab/fanpage", "ARTeLab/ilpost"], "metrics": ["rouge"], "widget": [{"text": "Non lo vuole sposare. E\u2019 quanto emerge all\u2019interno dell\u2019ultima intervista di Raffaella Fico che, ringraziando Mancini per i buoni consigli elargiti al suo fidanzato, rimanda l\u2019idea del matrimonio per qualche anno ancora. La soubrette, che \u00e8 stata recentemente protagonista di una dedica di Supermario, non ha ancora intenzione di accasarsi perch\u00e9 \u00e8 sicura che per mettersi la fede al dito ci sia ancora tempo. Nonostante il suo Mario sia uno degli sportivi pi\u00f9 desiderati al mondo, l\u2019ex protagonista del Grande Fratello non ha alcuna intenzione di cedere seriamente alla sua corte. Solo qualche giorno fa, infatti, dopo l\u2019ultima bravata di Balotelli, Mancini gli aveva consigliato di sposare la sua Raffaella e di mettere la testa a posto. Chi pensava che sarebbe stato Mario a rispondere, per\u00f2, si \u00e8 sbagliato. A mettere le cose bene in chiaro \u00e8 la Fico che, intervistata dall\u2019emittente radiofonica Rtl 102.5, dice: \u00c8 presto per sposarsi, siamo ancora molto giovani. \u00c8 giusto che prima uno si realizzi nel proprio lavoro. E poi successivamente perch\u00e9 no, ci si pu\u00f2 anche pensare. Quando si \u00e8 giovani capita di fare qualche pazzia, quindi ci sta. Comunque i tabloid inglesi sono totalmente accaniti sulla sua vita privata quando poi dovrebbero interessarsi di pi\u00f9 di quello che fa sul campo. Lui non fa le cose con cattiveria, ma quando si \u00e8 giovani si fanno determinate cose senza stare a pensare se sono giuste o sbagliate. Mario ha gli obiettivi puntati addosso: pi\u00f9 per la sua vita privata che come giocatore. Per me pu\u00f2 anche andare in uno strip club, se non fa niente di male, con gli amici, per\u00f2 devo dire che alla fine torna sempre da me, sono la sua preferita."}, {"text": "Valerio \u00e8 giovanissimo ma gi\u00e0 una star. Fuori dall\u2019Ariston ragazzine e meno ragazzine passano ore anche sotto la pioggia per vederlo. Lui \u00e8 forte del suo talento e sicuro. Partecipa in gara tra i \u201cbig\u201d di diritto, per essere arrivato in finalissima nel programma Amici di Maria De Filippi e presenta il brano Per tutte le volte che scritta per lui da Pierdavide Carone. Valerio Scanu \u00e8 stato eliminato. Ma non \u00e8 detta l'ultima parola: il duetto di questa sera con Alessandra Amoroso potrebbe risollevarlo e farlo rientrare in gara. Che cosa \u00e8 successo alla giuria visto che sei stato eliminato anche se l\u2019esibizione era perfetta? Nn lo so. Sono andate bene le esibizioni, ero emozionato ma tranquillo. Ero contento ma ho cantato bene. Non sono passato e stasera ci sar\u00e0 il ballottaggio\u2026 Quali sono le differenze tra Amici e Sanremo? Sono due cose diverse. Amici ti prepara a salire sul palco di amici. A Sanremo ci devi arrivare\u2026 ho fatto pi\u00f9 di sessanta serate nel tour estivo, poi promozione del secondo disco. Una bella palestra. Sono cresciuto anche umanamente. Sono riuscito a percepire quello che il pubblico trasmette. L\u2019umilt\u00e0? Prima di tutto. Senn\u00f2 non sarei qui."}, {"text": "L\u2019azienda statunitense Broadcom, uno dei pi\u00f9 grandi produttori di semiconduttori al mondo, ha presentato un\u2019offerta per acquisire Qualcomm, altra grande societ\u00e0 degli Stati Uniti conosciuta soprattutto per la sua produzione di microprocessori Snapdragon (ARM), utilizzati in centinaia di milioni di smartphone in giro per il mondo. Broadcom ha proposto di acquistare ogni azione di Qualcomm al prezzo di 70 dollari, per un valore complessivo di circa 105 miliardi di dollari (130 miliardi se si comprendono 25 miliardi di debiti netti) . Se l\u2019operazione dovesse essere approvata, sarebbe una delle pi\u00f9 grandi acquisizioni di sempre nella storia del settore tecnologico degli Stati Uniti. Broadcom ha perfezionato per mesi la sua proposta di acquisto e, secondo i media statunitensi, avrebbe gi\u00e0 preso contatti con Qualcomm per trovare un accordo. Secondo gli analisti, Qualcomm potrebbe comunque opporsi all\u2019acquisizione perch\u00e9 il prezzo offerto \u00e8 di poco superiore a quello dell\u2019attuale valore delle azioni dell\u2019azienda. Ci potrebbero essere inoltre complicazioni sul piano dell\u2019antitrust da valutare, prima di un\u2019eventuale acquisizione."}, {"text": "Dal 31 maggio \u00e8 infine partita la piattaforma ITsART, a pi\u00f9 di un anno da quando \u2013 durante il primo lockdown \u2013 il ministro della Cultura Dario Franceschini ne aveva parlato come di \u00abuna sorta di Netflix della cultura\u00bb, pensata per \u00aboffrire a tutto il mondo la cultura italiana a pagamento\u00bb. \u00c8 presto per dare giudizi definitivi sulla piattaforma, e di certo sar\u00e0 difficile farlo anche pi\u00f9 avanti senza numeri precisi. Al momento, l\u2019unica cosa che si pu\u00f2 fare \u00e8 guardare com\u2019\u00e8 fatto il sito, contare quanti contenuti ci sono (circa 700 \u201ctitoli\u201d, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro variet\u00e0. Intanto, una cosa notata da pi\u00f9 parti \u00e8 che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente."}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-news-summarization", "results": [{"task": {"type": "news-summarization", "name": "News Summarization"}, "dataset": {"name": "NewsSum-IT", "type": "newssum-it"}, "metrics": [{"type": "rouge1", "value": 0.249, "name": "Test Rouge1 IlPost"}, {"type": "rouge2", "value": 0.102, "name": "Test Rouge2 IlPost"}, {"type": "rougeL", "value": 0.199, "name": "Test RougeL IlPost"}, {"type": "bertscore", "value": 0.313, "name": "Test BERTScore IlPost", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "rouge1", "value": 0.253, "name": "Test Rouge1 Fanpage"}, {"type": "rouge2", "value": 0.099, "name": "Test Rouge2 Fanpage"}, {"type": "rougeL", "value": 0.191, "name": "Test RougeL Fanpage"}, {"type": "bertscore", "value": 0.316, "name": "Test BERTScore Fanpage", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-large-news-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"fanpage",
"ilpost",
"summarization",
"it",
"dataset:ARTeLab/fanpage",
"dataset:ARTeLab/ilpost",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for News Summarization ️️ 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Large for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on extractive question answering on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qa = pipeline("text2text-generation", model='it5/it5-large-question-answering')
qa("In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale è riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie. Domanda: La foresta pluviale amazzonica è diventata per lo più una foresta interna intorno a quale evento globale?")
>>> [{"generated_text": "ultimo massimo glaciale"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-question-answering")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-question-answering")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "squad_it", "text2text-question-answering", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["f1", "exact-match"], "widget": [{"text": "In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45\u00b0. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale \u00e8 riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia variet\u00e0 di specie. Domanda: La foresta pluviale amazzonica \u00e8 diventata per lo pi\u00f9 una foresta interna intorno a quale evento globale?"}, {"text": "L' embargo non era uniforme in tutta Europa. Dei nove membri della Comunit\u00e0 Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un embargo totale, il Regno Unito e la Francia hanno ricevuto forniture quasi ininterrotte (poich\u00e8 si sono rifiutati di consentire all' America di utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi che agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei sei giorni. Il suo successore, Ted Heath, ribalt\u00f2 questa politica nel 1970, chiedendo a Israele di ritirarsi ai suoi confini prima del 1967. Domanda: Il Regno Unito e la Francia non hanno avuto interruzioni dell' approvvigionamento petrolifero in quanto non hanno consentito a quale paese di utilizzare il loro aeroporto?"}, {"text": "Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma pi\u00f9 conosciuta (e attuale) con le lettere minuscole \"abc\" racchiuse in un unico cerchio nero. Il nuovo logo esordisce in onda per le promozioni di ABC all' inizio della stagione 1963-64. Le lettere ricordano fortemente il carattere tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti, ma condividono anche similitudini con diversi altri caratteri, come ITC Avant Garde e Horatio, e lo Chalet pi\u00f9 simile. La semplicit\u00e0 del logo ha reso pi\u00f9 facile la riprogettazione e la duplicazione, il che ha conferito un beneficio per ABC (soprattutto prima dell' avvento della computer grafica). Domanda: Di quale carattere tipografico ricordano le lettere dell' iconico logo ABC?"}, {"text": "La fotorespirazione pu\u00f2 verificarsi quando la concentrazione di ossigeno \u00e8 troppo elevata. Rubisco non \u00e8 in grado di distinguere molto bene tra ossigeno e anidride carbonica, quindi pu\u00f2 accidentalmente aggiungere O2 invece di CO2 a RuBP. Questo processo riduce l' efficienza della fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero. Pu\u00f2 sprecare fino alla met\u00e0 del carbonio fissato dal ciclo di Calvin. Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la concentrazione di anidride carbonica rispetto all' ossigeno all' interno del cloroplasto, aumentando l' efficienza della fotosintesi. Questi meccanismi sono chiamati meccanismi di concentrazione dell' anidride carbonica, o CCM. Tra questi figurano il metabolismo degli acidi crassulaceanici, la fissazione del carbonio C4 e i pirenoidi. I cloroplasti negli impianti C4 sono notevoli in quanto presentano un chiaro dimorfismo cloroplastico. Domanda: Che cosa pu\u00f2 fare rubisco per errore?"}], "co2_eq_emissions": {"emissions": "51g\"", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-question-answering", "results": [{"task": {"type": "question-answering", "name": "Question Answering"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "f1", "value": 0.78, "name": "Test F1"}, {"type": "exact-match", "value": 0.691, "name": "Test Exact Match"}]}]}]}
|
it5/it5-large-question-answering
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"squad_it",
"text2text-question-answering",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Large for Question Generation 💭 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on question generation on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qg = pipeline("text2text-generation", model='it5/it5-large-question-generation')
qg("Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto più autorevole di allora è venuto dalla facoltà di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che causò una "grande pestilenza nell\' aria". Questa relazione è diventata la prima e più diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria più accettata. Oggi, questo è conosciuto come la teoria di Miasma. La parola "peste" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che è diventato il termine medico. Risposta: re di Francia")
>>> [{"generated_text": "Per chi è stato redatto il referto medico?"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-question-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-question-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "question-generation", "squad_it", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto pi\u00f9 autorevole di allora \u00e8 venuto dalla facolt\u00e0 di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che caus\u00f2 una \"grande pestilenza nell' aria\". Questa relazione \u00e8 diventata la prima e pi\u00f9 diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria pi\u00f9 accettata. Oggi, questo \u00e8 conosciuto come la teoria di Miasma. La parola \"peste\" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che \u00e8 diventato il termine medico. Risposta: re di Francia"}, {"text": "Il 14 aprile 2011, ABC ha annullato le lunghe opere di sapone All My Children e One Life to Live dopo 41 e 43 anni in onda, rispettivamente (in seguito al contraccolpo dei tifosi, ABC ha venduto i diritti ad entrambi gli spettacoli a Prospect Park, che alla fine ha rilanciato i saponi su Hulu per un' ulteriore stagione nel 2013 e con entrambe le societ\u00e0 che si citano in giudizio per accuse di interferenza con il processo di rilancio degli spettacoli, mancato pagamento delle tasse di licenza. Il talk/lifestyle show che ha sostituito One Life to Live, The Revolution, non \u00e8 riuscito a generare giudizi soddisfacenti ed \u00e8 stato a sua volta annullato dopo soli sette mesi. La stagione 2011-12 ha visto l' ABC cadere al quarto posto nel 18-49 demografico nonostante rinnovando una manciata di nuovi spettacoli (compresi i drammi matricole Scandal, Revenge e Once Upon a Time) per la seconda stagione. Risposta: Hulu"}, {"text": "L' American Broadcasting Company (ABC) (stlized nel suo logo come abc dal 1957) \u00e8 una rete televisiva commerciale americana trasmissione televisiva che \u00e8 di propriet\u00e0 del Disney-ABC Television Group, una controllata della divisione Disney Media Networks di The Walt Disney Company. La rete fa parte delle grandi reti televisive Big Three. La rete ha sede a Columbus Avenue e West 66th Street a Manhattan, con ulteriori uffici e stabilimenti di produzione a New York City, Los Angeles e Burbank, California. Risposta: Manhattan"}, {"text": "La disobbedienza civile non rivoluzionaria \u00e8 una semplice disobbedienza delle leggi sulla base del fatto che sono giudicate \"sbagliate\" da una coscienza individuale, o come parte di uno sforzo per rendere alcune leggi inefficaci, per causarne l' abrogazione, o per esercitare pressioni per ottenere i propri desideri politici su qualche altra questione. La disobbedienza civile rivoluzionaria \u00e8 pi\u00f9 che altro un tentativo attivo di rovesciare un governo (o di cambiare le tradizioni culturali, i costumi sociali, le credenze religiose, ecc. La rivoluzione non deve necessariamente essere politica, cio\u00e8 \"rivoluzione culturale\", implica semplicemente un cambiamento radicale e diffuso in una sezione del tessuto sociale). Gli atti di Gandhi sono stati descritti come disobbedienza civile rivoluzionaria. \u00c8 stato affermato che gli ungheresi sotto Ferenc De\u00e1k hanno diretto una disobbedienza civile rivoluzionaria contro il governo austriaco. Thoreau ha anche scritto di disobbedienza civile realizzando \"rivoluzione pacifica\". Howard Zinn, Harvey Wheeler e altri hanno identificato il diritto sposato nella Dichiarazione d' Indipendenza di \"alterare o abolire\" un governo ingiusto come principio di disobbedienza civile. Risposta: Ferenc De\u00e1k"}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-question-generation", "results": [{"task": {"type": "question-generation", "name": "Question generation"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "rouge1", "value": 0.383, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.204, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.36, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.522, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-large-question-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"question-generation",
"squad_it",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for Question Generation 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Large for News Headline Style Transfer (Repubblica to Il Giornale) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
r2g = pipeline("text2text-generation", model='it5/it5-large-repubblica-to-ilgiornale')
r2g("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-repubblica-to-ilgiornale")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-repubblica-to-ilgiornale")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-repubblica-to-ilgiornale", "results": [{"task": {"type": "headline-style-transfer-repubblica-to-ilgiornale", "name": "Headline style transfer (Repubblica to Il Giornale)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.27, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.089, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.237, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.4, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.883, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.88, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/it5-large-repubblica-to-ilgiornale
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# IT5 Large for Wikipedia Summarization ✂️📑 🇮🇹
This repository contains the checkpoint for the [IT5 Large](https://huggingface.co/gsarti/it5-large) model fine-tuned on Wikipedia summarization on the [WITS](https://www.semanticscholar.org/paper/WITS%3A-Wikipedia-for-Italian-Text-Summarization-Casola-Lavelli/ad6c83122e721c7c0db4a40727dac3b4762cd2b1) dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
wikisum = pipeline("summarization", model='it5/it5-large-wiki-summarization')
wikisum("Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale è separata dal passaggio Rodman. La sua altezza è di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola è presente il rifugio Guillochon, sito storico antartico. ")
>>> [{"generated_text": "L' '''isola di Rabot''' si trova in prossimità dell'isola di Renaud, a sud dell'Argentina."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-large-wiki-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-large-wiki-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "wikipedia", "summarization", "wits"], "datasets": ["wits"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "La 5\u00aa Commissione ha competenza per i disegni di legge riguardanti le specifiche materie del bilancio, del personale e dei servizi del Ministero dell'economia, nonch\u00e9 per i disegni di legge riguardanti la materia finanziaria. La Commissione \u00e8 composta da 26 senatori (di cui 2 segretari, 2 vicepresidenti di cui 1 componente esterno, e un presidente) scelti in modo omogeneo tra i componenti di quel ramo del Parlamento, in modo da rispecchiarne le forze politiche presenti. Essi sono scelti dai gruppi parlamentari (e non dal Presidente, come invece accade per l'organismo della Giunta parlamentare): per la nomina dei membri ciascun Gruppo, entro cinque giorni dalla propria costituzione, procede, dandone comunicazione alla Presidenza del Senato, alla designazione dei propri rappresentanti nelle singole Commissioni permanenti. Ogni senatore chiamato a far parte del governo o eletto presidente della Commissione \u00e8, per la durata della carica, sostituito dal suo gruppo nella Commissione con un altro senatore, che continuer\u00e0 ad appartenere anche alla Commissione di provenienza. Tranne in rari casi nessun Senatore pu\u00f2 essere assegnato a pi\u00f9 di una Commissione permanente. Le Commissioni permanenti sono rinnovate dopo il primo biennio della legislatura ed i loro componenti possono essere confermati."}, {"text": "Interni della chiesa Si pensa che gi\u00e0 ai tempi di Gediminas vi fosse una piccola chiesa, probabilmente in legno. Nel 1408 circa Vitoldo costru\u00ec la chiesa dello Spirito Santo che and\u00f2 in seguito ampliata. Nel 1501 Alessandro Jagellone lo don\u00f2 al monastero domenicano, il pi\u00f9 antico della Lituania, che nel 1679-88 fu ampliato e ricostruito. Di quel periodo sopravvivono le mura della chiesa, mentre l'arredamento interno fu realizzato nel 1749-1770 e la cupola affront\u00f2 dei lavori di restauro nel 1752-1760. Nel 1844 le autorit\u00e0 zariste chiusero il monastero e la chiesa divenne parrocchiale. Oggi serve la comunit\u00e0 polacca di Vilnius. Su via \u0160v. Ignoto fu fondato un monastero domenicano nel 1501. Come molti altri edifici, questo monastero fu convertito in una prigione dalle autorit\u00e0 zariste nel 1807. Costitu\u00ec un luogo di prigionia per molti patrioti lituani, nello specifico i Filareti, i quali parteciparono alle rivolte del 1831 e del 1863. Organo La chiesa si trova lateralmente rispetto alla strada e non ha una facciata principale ben disegnata. L'altezza, inclusa la cupola, \u00e8 di 51 m. La parte inferiore della facciata (con piccole torri gemelle) \u00e8 ricoperta da edifici conventuali e l'esterno presenta caratteristiche architettoniche tipiche del tardo barocco. Celebre per i fantasiosi ornamenti rococ\u00f2, l'interno della chiesa \u00e8 tra i pi\u00f9 celebri della Lituania per via dei cartigli con vari stemmi e affreschi lungo la navata: vi sono 16 altari nella chiesa. Gli altari e il pulpito sono assai decorati con sculture e ornamenti rotondi e in rilievo. Tra gli affreschi barocchi, si pensi alla composizione multi-figurale intitolata ''Apoteosi dello Spirito Santo'' (neobarocco, XIX secolo) nella cupola, 45 dipinti nella chiesa (tra cui un'immagine di Santa Barbara con un'ambientazione del XVII o XVIII secolo, una di Santa Caterina da Siena in stile rococ\u00f2 di Szymon Czechowicz, un ritratto di Alessandro Jagellone di un artista sconosciuto della seconda met\u00e0 del XVIII secolo). Un ingresso sotto l'altare conduce alle grandi volte, labirintiche, con molte stanze e cripte: i sotterranei ospitano i resti di centinaia di residenti di Vilnius, alcuni dei quali mummificatisi naturalmente, e sono circondati da leggende metropolitane. Sebbene l'esistenza dei sotterranei fosse nota, i primi sforzi per esplorare e mappare le cripte furono abbandonate nonostante lo sforzo degli studenti dell'Universit\u00e0 di Vilnius negli anni '30. Tuttavia, questi ultimi non avevano osservato le corrette procedure archeologiche e causarono infatti molti danni: il modus operandi prevedeva lo smistamento delle ossa ponendo tutti i teschi sugli scaffali e rimuovendoli le tombe. Da allora, i resti sono stati spostati molte volte lasciandoli in uno stato casuale e disorganizzato. Stando alle leggende che aleggiano sul luogo, i resti sarebbero di soldati francesi recatisi in citt\u00e0 nel corso della campagna di Russia del 1812 avviata da Napoleone Bonaparte, di vittime dell'Inquisizione o della peste nera. Pi\u00f9 romantiche risultano le affermazioni di chi sostiene che i corridoi sotterranei facevano parte di una rete di passaggi pi\u00f9 ampia che consentiva agli amanti leggendari Barbara Radziwi\u0142\u0142 e Sigismondo II Augusto di incontrarsi in segreto. Nel 2011, gli antropologi dell'Universit\u00e0 di Vilnius, guidati da Rimantas Jankauskas, avviarono uno studio sui corpi mummificati, stimando settimane dopo che le volte conservassero i resti di circa 600 persone, tra cui molte donne e bambini dalla met\u00e0 del XVIII secolo all'inizio del XIX secolo. Il team ha selezionato i cadaveri meglio conservati e ha eseguito la loro tomografia. I risultati mostrano che molte persone erano in sovrappeso e avevano l'alluce valgo, il che ha portato alla conclusione che si trattava di alti borghesi o comunque di cittadini abbienti. "}, {"text": "Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale \u00e8 separata dal passaggio Rodman. La sua altezza \u00e8 di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola \u00e8 presente il rifugio Guillochon, sito storico antartico. "}, {"text": "Vanni ha la sua prima mostra personale nel 1948, alla Galleria Margherita di Roma. Nel 1949 vince una borsa di studio che lo porter\u00e0 a studiare ad Amsterdam sotto la guida del pittore neoplastico Friedrich Vordemberge-Gildewart. Nel 1952 vince una Fulbright Scholarship che lo porter\u00e0 a studiare in America, alla Yale University, sotto la guida di Josef Albers. Dal 1953 al 1960 si stabilisce a Parigi, dove illustra alcuni libri per bambini che in seguito vinceranno il premio del Club des Editeurs. Nel 1954 lavora come consulente del colore per il documentario su Picasso di Luciano Emmer, e nel 1955 comincia la sua lunga collaborazione con la Galleria Schneider, affiancando artisti come Corrado Cagli. Dal 1969 al 1974 lavora su dei bassorilievi in vetro resina sui quali vengono proiettati dei film astratti da lui creati, per creare dei quadri che si trasformino continuamente nel tempo. Nel 1979 lascia Roma per stabilirsi a New York, dove alla carriera di pittore affiancher\u00e0 quella di professore per la prestigiosa Cooper Union School of Art, dove insegner\u00e0 ininterrottamente dal 1984 al 2014. L'opera pittorica di Vanni \u00e8 segnata da una visione estremamente personale, lontana dalle correnti e dai movimenti che hanno caratterizzato la seconda met\u00e0 del XX secolo. Memore delle lunghe conversazioni avute da Vanni nella sua primissima giovent\u00f9, con il filosofo e pittore futurista Alberto Bragaglia, le sue opere sono contrassegnate da un \u201ceclettismo\u201d formale programmatico, alla base del quale resta costante una conoscenza profonda delle molteplici tecniche artistiche utilizzate (tra cui il mosaico, l\u2019affresco e la tempera ad uovo). Pur esprimendosi per lo pi\u00f9 in cicli di opere dove l\u2019astrazione formale \u00e8 la principale componente figurativa, sono da sottolineare alcune opere dove Vanni ha dato prova di una importante padronanza dell\u2019arte figurativa. Importanti e numerose sono le sue realizzazioni anche nel campo dell\u2019illustrazione. Sue sono le illustrazioni per la novella ''Agostino'' di Alberto Moravia, per il libro ''Love'' di Lowell A. Siff e delle ''Contes de Cristal'' di Alice Col\u00e9no. Ha tenuto mostre personali in Italia e all\u2019estero ed esposto in mostre collettive di rappresentanza italiana nei musei e nelle gallerie di ogni parte del mondo. "}], "co2_eq_emissions": {"emissions": "51g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-large-wiki-summarization", "results": [{"task": {"type": "wiki-summarization", "name": "Wikipedia Summarization"}, "dataset": {"name": "WITS", "type": "wits"}, "metrics": [{"type": "rouge1", "value": 0.335, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.191, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.301, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.508, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-large-wiki-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"safetensors",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"wikipedia",
"summarization",
"wits",
"it",
"dataset:wits",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #safetensors #t5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Large for Wikipedia Summarization ️ 🇮🇹
This repository contains the checkpoint for the IT5 Large model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Large for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #safetensors #t5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Large for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Large model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for Formal-to-informal Style Transfer 🤗
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
f2i = pipeline("text2text-generation", model='it5/it5-small-formal-to-informal')
f2i("Vi ringrazio infinitamente per vostra disponibilità")
>>> [{"generated_text": "e grazie per la vostra disponibilità!"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-formal-to-informal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-formal-to-informal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Questa performance \u00e8 a dir poco spiacevole."}, {"text": "In attesa di un Suo cortese riscontro, Le auguriamo un piacevole proseguimento di giornata."}, {"text": "Questa visione mi procura una goduria indescrivibile."}, {"text": "qualora ci\u00f2 possa interessarti, ti pregherei di contattarmi."}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "it5-small-formal-to-informal", "results": [{"task": {"type": "formality-style-transfer", "name": "Formal-to-informal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.65, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.45, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.631, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.663, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-small-formal-to-informal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for Formal-to-informal Style Transfer
This repository contains the checkpoint for the IT5 Small model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for News Headline Generation 📣 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
hg = pipeline("text2text-generation", model='it5/it5-small-headline-generation')
hg("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-headline-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-headline-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "headline-generation"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-headline-generation", "results": [{"task": {"type": "headline-generation", "name": "Headline generation"}, "dataset": {"name": "HeadGen-IT", "type": "headgen_it"}, "metrics": [{"type": "rouge1", "value": 0.287, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.1, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.253, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.414, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-small-headline-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"headline-generation",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for News Headline Generation 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
g2r = pipeline("text2text-generation", model='it5/it5-small-ilgiornale-to-repubblica')
g2r("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-ilgiornale-to-repubblica")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-ilgiornale-to-repubblica")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-ilgiornale-to-repubblica", "results": [{"task": {"type": "headline-style-transfer-ilgiornale-to-repubblica", "name": "Headline style transfer (Il Giornale to Repubblica)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.27, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.092, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.239, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.404, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.909, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.869, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/it5-small-ilgiornale-to-repubblica
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for Informal-to-formal Style Transfer 🧐
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
i2f = pipeline("text2text-generation", model='it5/it5-small-informal-to-formal')
i2f("nn capisco xke tt i ragazzi lo fanno")
>>> [{"generated_text": "non comprendo perché tutti i ragazzi agiscono così"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-informal-to-formal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-informal-to-formal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "maronn qualcuno mi spieg' CHECCOSA SUCCEDE?!?!"}, {"text": "wellaaaaaaa, ma frat\u00e9 sei proprio troppo simpatiko, grazieeee!!"}, {"text": "nn capisco xke tt i ragazzi lo fanno"}, {"text": "IT5 \u00e8 SUPERMEGA BRAVISSIMO a capire tt il vernacolo italiano!!!"}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "it5-small-informal-to-formal", "results": [{"task": {"type": "formality-style-transfer", "name": "Informal-to-formal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.646, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.451, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.628, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.702, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-small-informal-to-formal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for Informal-to-formal Style Transfer
This repository contains the checkpoint for the IT5 Small model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# IT5 Small for News Summarization ✂️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on news summarization on the [Fanpage](https://huggingface.co/datasets/ARTeLab/fanpage) and [Il Post](https://huggingface.co/datasets/ARTeLab/ilpost) corpora as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
newsum = pipeline("summarization", model='it5/it5-small-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-news-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "fanpage", "ilpost", "summarization"], "datasets": ["ARTeLab/fanpage", "ARTeLab/ilpost"], "metrics": ["rouge"], "widget": [{"text": "Non lo vuole sposare. E\u2019 quanto emerge all\u2019interno dell\u2019ultima intervista di Raffaella Fico che, ringraziando Mancini per i buoni consigli elargiti al suo fidanzato, rimanda l\u2019idea del matrimonio per qualche anno ancora. La soubrette, che \u00e8 stata recentemente protagonista di una dedica di Supermario, non ha ancora intenzione di accasarsi perch\u00e9 \u00e8 sicura che per mettersi la fede al dito ci sia ancora tempo. Nonostante il suo Mario sia uno degli sportivi pi\u00f9 desiderati al mondo, l\u2019ex protagonista del Grande Fratello non ha alcuna intenzione di cedere seriamente alla sua corte. Solo qualche giorno fa, infatti, dopo l\u2019ultima bravata di Balotelli, Mancini gli aveva consigliato di sposare la sua Raffaella e di mettere la testa a posto. Chi pensava che sarebbe stato Mario a rispondere, per\u00f2, si \u00e8 sbagliato. A mettere le cose bene in chiaro \u00e8 la Fico che, intervistata dall\u2019emittente radiofonica Rtl 102.5, dice: \u00c8 presto per sposarsi, siamo ancora molto giovani. \u00c8 giusto che prima uno si realizzi nel proprio lavoro. E poi successivamente perch\u00e9 no, ci si pu\u00f2 anche pensare. Quando si \u00e8 giovani capita di fare qualche pazzia, quindi ci sta. Comunque i tabloid inglesi sono totalmente accaniti sulla sua vita privata quando poi dovrebbero interessarsi di pi\u00f9 di quello che fa sul campo. Lui non fa le cose con cattiveria, ma quando si \u00e8 giovani si fanno determinate cose senza stare a pensare se sono giuste o sbagliate. Mario ha gli obiettivi puntati addosso: pi\u00f9 per la sua vita privata che come giocatore. Per me pu\u00f2 anche andare in uno strip club, se non fa niente di male, con gli amici, per\u00f2 devo dire che alla fine torna sempre da me, sono la sua preferita."}, {"text": "Valerio \u00e8 giovanissimo ma gi\u00e0 una star. Fuori dall\u2019Ariston ragazzine e meno ragazzine passano ore anche sotto la pioggia per vederlo. Lui \u00e8 forte del suo talento e sicuro. Partecipa in gara tra i \u201cbig\u201d di diritto, per essere arrivato in finalissima nel programma Amici di Maria De Filippi e presenta il brano Per tutte le volte che scritta per lui da Pierdavide Carone. Valerio Scanu \u00e8 stato eliminato. Ma non \u00e8 detta l'ultima parola: il duetto di questa sera con Alessandra Amoroso potrebbe risollevarlo e farlo rientrare in gara. Che cosa \u00e8 successo alla giuria visto che sei stato eliminato anche se l\u2019esibizione era perfetta? Nn lo so. Sono andate bene le esibizioni, ero emozionato ma tranquillo. Ero contento ma ho cantato bene. Non sono passato e stasera ci sar\u00e0 il ballottaggio\u2026 Quali sono le differenze tra Amici e Sanremo? Sono due cose diverse. Amici ti prepara a salire sul palco di amici. A Sanremo ci devi arrivare\u2026 ho fatto pi\u00f9 di sessanta serate nel tour estivo, poi promozione del secondo disco. Una bella palestra. Sono cresciuto anche umanamente. Sono riuscito a percepire quello che il pubblico trasmette. L\u2019umilt\u00e0? Prima di tutto. Senn\u00f2 non sarei qui."}, {"text": "L\u2019azienda statunitense Broadcom, uno dei pi\u00f9 grandi produttori di semiconduttori al mondo, ha presentato un\u2019offerta per acquisire Qualcomm, altra grande societ\u00e0 degli Stati Uniti conosciuta soprattutto per la sua produzione di microprocessori Snapdragon (ARM), utilizzati in centinaia di milioni di smartphone in giro per il mondo. Broadcom ha proposto di acquistare ogni azione di Qualcomm al prezzo di 70 dollari, per un valore complessivo di circa 105 miliardi di dollari (130 miliardi se si comprendono 25 miliardi di debiti netti) . Se l\u2019operazione dovesse essere approvata, sarebbe una delle pi\u00f9 grandi acquisizioni di sempre nella storia del settore tecnologico degli Stati Uniti. Broadcom ha perfezionato per mesi la sua proposta di acquisto e, secondo i media statunitensi, avrebbe gi\u00e0 preso contatti con Qualcomm per trovare un accordo. Secondo gli analisti, Qualcomm potrebbe comunque opporsi all\u2019acquisizione perch\u00e9 il prezzo offerto \u00e8 di poco superiore a quello dell\u2019attuale valore delle azioni dell\u2019azienda. Ci potrebbero essere inoltre complicazioni sul piano dell\u2019antitrust da valutare, prima di un\u2019eventuale acquisizione."}, {"text": "Dal 31 maggio \u00e8 infine partita la piattaforma ITsART, a pi\u00f9 di un anno da quando \u2013 durante il primo lockdown \u2013 il ministro della Cultura Dario Franceschini ne aveva parlato come di \u00abuna sorta di Netflix della cultura\u00bb, pensata per \u00aboffrire a tutto il mondo la cultura italiana a pagamento\u00bb. \u00c8 presto per dare giudizi definitivi sulla piattaforma, e di certo sar\u00e0 difficile farlo anche pi\u00f9 avanti senza numeri precisi. Al momento, l\u2019unica cosa che si pu\u00f2 fare \u00e8 guardare com\u2019\u00e8 fatto il sito, contare quanti contenuti ci sono (circa 700 \u201ctitoli\u201d, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro variet\u00e0. Intanto, una cosa notata da pi\u00f9 parti \u00e8 che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente."}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-news-summarization", "results": [{"task": {"type": "news-summarization", "name": "News Summarization"}, "dataset": {"name": "NewsSum-IT", "type": "newssum-it"}, "metrics": [{"type": "rouge1", "value": 0.333, "name": "Test Rouge1 IlPost"}, {"type": "rouge2", "value": 0.162, "name": "Test Rouge2 IlPost"}, {"type": "rougeL", "value": 0.273, "name": "Test RougeL IlPost"}, {"type": "bertscore", "value": 0.395, "name": "Test BERTScore IlPost", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "rouge1", "value": 0.328, "name": "Test Rouge1 Fanpage"}, {"type": "rouge2", "value": 0.148, "name": "Test Rouge2 Fanpage"}, {"type": "rougeL", "value": 0.242, "name": "Test RougeL Fanpage"}, {"type": "bertscore", "value": 0.377, "name": "Test BERTScore Fanpage", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-small-news-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"fanpage",
"ilpost",
"summarization",
"it",
"dataset:ARTeLab/fanpage",
"dataset:ARTeLab/ilpost",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for News Summarization ️️ 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on extractive question answering on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qa = pipeline("text2text-generation", model='it5/it5-small-question-answering')
qa("In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale è riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie. Domanda: La foresta pluviale amazzonica è diventata per lo più una foresta interna intorno a quale evento globale?")
>>> [{"generated_text": "ultimo massimo glaciale"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-question-answering")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-question-answering")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "squad_it", "text2text-question-answering", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["f1", "exact-match"], "widget": [{"text": "In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45\u00b0. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale \u00e8 riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia variet\u00e0 di specie. Domanda: La foresta pluviale amazzonica \u00e8 diventata per lo pi\u00f9 una foresta interna intorno a quale evento globale?"}, {"text": "L' embargo non era uniforme in tutta Europa. Dei nove membri della Comunit\u00e0 Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un embargo totale, il Regno Unito e la Francia hanno ricevuto forniture quasi ininterrotte (poich\u00e8 si sono rifiutati di consentire all' America di utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi che agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei sei giorni. Il suo successore, Ted Heath, ribalt\u00f2 questa politica nel 1970, chiedendo a Israele di ritirarsi ai suoi confini prima del 1967. Domanda: Il Regno Unito e la Francia non hanno avuto interruzioni dell' approvvigionamento petrolifero in quanto non hanno consentito a quale paese di utilizzare il loro aeroporto?"}, {"text": "Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma pi\u00f9 conosciuta (e attuale) con le lettere minuscole \"abc\" racchiuse in un unico cerchio nero. Il nuovo logo esordisce in onda per le promozioni di ABC all' inizio della stagione 1963-64. Le lettere ricordano fortemente il carattere tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti, ma condividono anche similitudini con diversi altri caratteri, come ITC Avant Garde e Horatio, e lo Chalet pi\u00f9 simile. La semplicit\u00e0 del logo ha reso pi\u00f9 facile la riprogettazione e la duplicazione, il che ha conferito un beneficio per ABC (soprattutto prima dell' avvento della computer grafica). Domanda: Di quale carattere tipografico ricordano le lettere dell' iconico logo ABC?"}, {"text": "La fotorespirazione pu\u00f2 verificarsi quando la concentrazione di ossigeno \u00e8 troppo elevata. Rubisco non \u00e8 in grado di distinguere molto bene tra ossigeno e anidride carbonica, quindi pu\u00f2 accidentalmente aggiungere O2 invece di CO2 a RuBP. Questo processo riduce l' efficienza della fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero. Pu\u00f2 sprecare fino alla met\u00e0 del carbonio fissato dal ciclo di Calvin. Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la concentrazione di anidride carbonica rispetto all' ossigeno all' interno del cloroplasto, aumentando l' efficienza della fotosintesi. Questi meccanismi sono chiamati meccanismi di concentrazione dell' anidride carbonica, o CCM. Tra questi figurano il metabolismo degli acidi crassulaceanici, la fissazione del carbonio C4 e i pirenoidi. I cloroplasti negli impianti C4 sono notevoli in quanto presentano un chiaro dimorfismo cloroplastico. Domanda: Che cosa pu\u00f2 fare rubisco per errore?"}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-question-answering", "results": [{"task": {"type": "question-answering", "name": "Question Answering"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "f1", "value": 0.716, "name": "Test F1"}, {"type": "exact-match", "value": 0.619, "name": "Test Exact Match"}]}]}]}
|
it5/it5-small-question-answering
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"squad_it",
"text2text-question-answering",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #has_space #text-generation-inference #region-us
|
# IT5 Small for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #has_space #text-generation-inference #region-us \n",
"# IT5 Small for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for Question Generation 💭 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on question generation on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qg = pipeline("text2text-generation", model='it5/it5-small-question-generation')
qg("Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto più autorevole di allora è venuto dalla facoltà di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che causò una "grande pestilenza nell\' aria". Questa relazione è diventata la prima e più diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria più accettata. Oggi, questo è conosciuto come la teoria di Miasma. La parola "peste" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che è diventato il termine medico. Risposta: re di Francia")
>>> [{"generated_text": "Per chi è stato redatto il referto medico?"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-question-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-question-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "question-generation", "squad_it", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto pi\u00f9 autorevole di allora \u00e8 venuto dalla facolt\u00e0 di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che caus\u00f2 una \"grande pestilenza nell' aria\". Questa relazione \u00e8 diventata la prima e pi\u00f9 diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria pi\u00f9 accettata. Oggi, questo \u00e8 conosciuto come la teoria di Miasma. La parola \"peste\" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che \u00e8 diventato il termine medico. Risposta: re di Francia"}, {"text": "Il 14 aprile 2011, ABC ha annullato le lunghe opere di sapone All My Children e One Life to Live dopo 41 e 43 anni in onda, rispettivamente (in seguito al contraccolpo dei tifosi, ABC ha venduto i diritti ad entrambi gli spettacoli a Prospect Park, che alla fine ha rilanciato i saponi su Hulu per un' ulteriore stagione nel 2013 e con entrambe le societ\u00e0 che si citano in giudizio per accuse di interferenza con il processo di rilancio degli spettacoli, mancato pagamento delle tasse di licenza. Il talk/lifestyle show che ha sostituito One Life to Live, The Revolution, non \u00e8 riuscito a generare giudizi soddisfacenti ed \u00e8 stato a sua volta annullato dopo soli sette mesi. La stagione 2011-12 ha visto l' ABC cadere al quarto posto nel 18-49 demografico nonostante rinnovando una manciata di nuovi spettacoli (compresi i drammi matricole Scandal, Revenge e Once Upon a Time) per la seconda stagione. Risposta: Hulu"}, {"text": "L' American Broadcasting Company (ABC) (stlized nel suo logo come abc dal 1957) \u00e8 una rete televisiva commerciale americana trasmissione televisiva che \u00e8 di propriet\u00e0 del Disney-ABC Television Group, una controllata della divisione Disney Media Networks di The Walt Disney Company. La rete fa parte delle grandi reti televisive Big Three. La rete ha sede a Columbus Avenue e West 66th Street a Manhattan, con ulteriori uffici e stabilimenti di produzione a New York City, Los Angeles e Burbank, California. Risposta: Manhattan"}, {"text": "La disobbedienza civile non rivoluzionaria \u00e8 una semplice disobbedienza delle leggi sulla base del fatto che sono giudicate \"sbagliate\" da una coscienza individuale, o come parte di uno sforzo per rendere alcune leggi inefficaci, per causarne l' abrogazione, o per esercitare pressioni per ottenere i propri desideri politici su qualche altra questione. La disobbedienza civile rivoluzionaria \u00e8 pi\u00f9 che altro un tentativo attivo di rovesciare un governo (o di cambiare le tradizioni culturali, i costumi sociali, le credenze religiose, ecc. La rivoluzione non deve necessariamente essere politica, cio\u00e8 \"rivoluzione culturale\", implica semplicemente un cambiamento radicale e diffuso in una sezione del tessuto sociale). Gli atti di Gandhi sono stati descritti come disobbedienza civile rivoluzionaria. \u00c8 stato affermato che gli ungheresi sotto Ferenc De\u00e1k hanno diretto una disobbedienza civile rivoluzionaria contro il governo austriaco. Thoreau ha anche scritto di disobbedienza civile realizzando \"rivoluzione pacifica\". Howard Zinn, Harvey Wheeler e altri hanno identificato il diritto sposato nella Dichiarazione d' Indipendenza di \"alterare o abolire\" un governo ingiusto come principio di disobbedienza civile. Risposta: Ferenc De\u00e1k"}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-question-generation", "results": [{"task": {"type": "question-generation", "name": "Question generation"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "rouge1", "value": 0.367, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.189, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.344, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.505, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-small-question-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"question-generation",
"squad_it",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for Question Generation 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# IT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
r2g = pipeline("text2text-generation", model='it5/it5-small-repubblica-to-ilgiornale')
r2g("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-repubblica-to-ilgiornale")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-repubblica-to-ilgiornale")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-repubblica-to-ilgiornale", "results": [{"task": {"type": "headline-style-transfer-repubblica-to-ilgiornale", "name": "Headline style transfer (Repubblica to Il Giornale)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.255, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.08, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.223, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.38, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.887, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.894, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/it5-small-repubblica-to-ilgiornale
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# IT5 Small for Wikipedia Summarization ✂️📑 🇮🇹
This repository contains the checkpoint for the [IT5 Small](https://huggingface.co/gsarti/it5-small) model fine-tuned on Wikipedia summarization on the [WITS](https://www.semanticscholar.org/paper/WITS%3A-Wikipedia-for-Italian-Text-Summarization-Casola-Lavelli/ad6c83122e721c7c0db4a40727dac3b4762cd2b1) dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
wikisum = pipeline("summarization", model='it5/it5-small-wiki-summarization')
wikisum("Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale è separata dal passaggio Rodman. La sua altezza è di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola è presente il rifugio Guillochon, sito storico antartico. ")
>>> [{"generated_text": "L' '''isola di Rabot''' si trova in prossimità dell'isola di Renaud, a sud dell'Argentina."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-small-wiki-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-small-wiki-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "wikipedia", "summarization", "wits"], "datasets": ["wits"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "La 5\u00aa Commissione ha competenza per i disegni di legge riguardanti le specifiche materie del bilancio, del personale e dei servizi del Ministero dell'economia, nonch\u00e9 per i disegni di legge riguardanti la materia finanziaria. La Commissione \u00e8 composta da 26 senatori (di cui 2 segretari, 2 vicepresidenti di cui 1 componente esterno, e un presidente) scelti in modo omogeneo tra i componenti di quel ramo del Parlamento, in modo da rispecchiarne le forze politiche presenti. Essi sono scelti dai gruppi parlamentari (e non dal Presidente, come invece accade per l'organismo della Giunta parlamentare): per la nomina dei membri ciascun Gruppo, entro cinque giorni dalla propria costituzione, procede, dandone comunicazione alla Presidenza del Senato, alla designazione dei propri rappresentanti nelle singole Commissioni permanenti. Ogni senatore chiamato a far parte del governo o eletto presidente della Commissione \u00e8, per la durata della carica, sostituito dal suo gruppo nella Commissione con un altro senatore, che continuer\u00e0 ad appartenere anche alla Commissione di provenienza. Tranne in rari casi nessun Senatore pu\u00f2 essere assegnato a pi\u00f9 di una Commissione permanente. Le Commissioni permanenti sono rinnovate dopo il primo biennio della legislatura ed i loro componenti possono essere confermati."}, {"text": "Interni della chiesa Si pensa che gi\u00e0 ai tempi di Gediminas vi fosse una piccola chiesa, probabilmente in legno. Nel 1408 circa Vitoldo costru\u00ec la chiesa dello Spirito Santo che and\u00f2 in seguito ampliata. Nel 1501 Alessandro Jagellone lo don\u00f2 al monastero domenicano, il pi\u00f9 antico della Lituania, che nel 1679-88 fu ampliato e ricostruito. Di quel periodo sopravvivono le mura della chiesa, mentre l'arredamento interno fu realizzato nel 1749-1770 e la cupola affront\u00f2 dei lavori di restauro nel 1752-1760. Nel 1844 le autorit\u00e0 zariste chiusero il monastero e la chiesa divenne parrocchiale. Oggi serve la comunit\u00e0 polacca di Vilnius. Su via \u0160v. Ignoto fu fondato un monastero domenicano nel 1501. Come molti altri edifici, questo monastero fu convertito in una prigione dalle autorit\u00e0 zariste nel 1807. Costitu\u00ec un luogo di prigionia per molti patrioti lituani, nello specifico i Filareti, i quali parteciparono alle rivolte del 1831 e del 1863. Organo La chiesa si trova lateralmente rispetto alla strada e non ha una facciata principale ben disegnata. L'altezza, inclusa la cupola, \u00e8 di 51 m. La parte inferiore della facciata (con piccole torri gemelle) \u00e8 ricoperta da edifici conventuali e l'esterno presenta caratteristiche architettoniche tipiche del tardo barocco. Celebre per i fantasiosi ornamenti rococ\u00f2, l'interno della chiesa \u00e8 tra i pi\u00f9 celebri della Lituania per via dei cartigli con vari stemmi e affreschi lungo la navata: vi sono 16 altari nella chiesa. Gli altari e il pulpito sono assai decorati con sculture e ornamenti rotondi e in rilievo. Tra gli affreschi barocchi, si pensi alla composizione multi-figurale intitolata ''Apoteosi dello Spirito Santo'' (neobarocco, XIX secolo) nella cupola, 45 dipinti nella chiesa (tra cui un'immagine di Santa Barbara con un'ambientazione del XVII o XVIII secolo, una di Santa Caterina da Siena in stile rococ\u00f2 di Szymon Czechowicz, un ritratto di Alessandro Jagellone di un artista sconosciuto della seconda met\u00e0 del XVIII secolo). Un ingresso sotto l'altare conduce alle grandi volte, labirintiche, con molte stanze e cripte: i sotterranei ospitano i resti di centinaia di residenti di Vilnius, alcuni dei quali mummificatisi naturalmente, e sono circondati da leggende metropolitane. Sebbene l'esistenza dei sotterranei fosse nota, i primi sforzi per esplorare e mappare le cripte furono abbandonate nonostante lo sforzo degli studenti dell'Universit\u00e0 di Vilnius negli anni '30. Tuttavia, questi ultimi non avevano osservato le corrette procedure archeologiche e causarono infatti molti danni: il modus operandi prevedeva lo smistamento delle ossa ponendo tutti i teschi sugli scaffali e rimuovendoli le tombe. Da allora, i resti sono stati spostati molte volte lasciandoli in uno stato casuale e disorganizzato. Stando alle leggende che aleggiano sul luogo, i resti sarebbero di soldati francesi recatisi in citt\u00e0 nel corso della campagna di Russia del 1812 avviata da Napoleone Bonaparte, di vittime dell'Inquisizione o della peste nera. Pi\u00f9 romantiche risultano le affermazioni di chi sostiene che i corridoi sotterranei facevano parte di una rete di passaggi pi\u00f9 ampia che consentiva agli amanti leggendari Barbara Radziwi\u0142\u0142 e Sigismondo II Augusto di incontrarsi in segreto. Nel 2011, gli antropologi dell'Universit\u00e0 di Vilnius, guidati da Rimantas Jankauskas, avviarono uno studio sui corpi mummificati, stimando settimane dopo che le volte conservassero i resti di circa 600 persone, tra cui molte donne e bambini dalla met\u00e0 del XVIII secolo all'inizio del XIX secolo. Il team ha selezionato i cadaveri meglio conservati e ha eseguito la loro tomografia. I risultati mostrano che molte persone erano in sovrappeso e avevano l'alluce valgo, il che ha portato alla conclusione che si trattava di alti borghesi o comunque di cittadini abbienti. "}, {"text": "Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale \u00e8 separata dal passaggio Rodman. La sua altezza \u00e8 di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola \u00e8 presente il rifugio Guillochon, sito storico antartico. "}, {"text": "Vanni ha la sua prima mostra personale nel 1948, alla Galleria Margherita di Roma. Nel 1949 vince una borsa di studio che lo porter\u00e0 a studiare ad Amsterdam sotto la guida del pittore neoplastico Friedrich Vordemberge-Gildewart. Nel 1952 vince una Fulbright Scholarship che lo porter\u00e0 a studiare in America, alla Yale University, sotto la guida di Josef Albers. Dal 1953 al 1960 si stabilisce a Parigi, dove illustra alcuni libri per bambini che in seguito vinceranno il premio del Club des Editeurs. Nel 1954 lavora come consulente del colore per il documentario su Picasso di Luciano Emmer, e nel 1955 comincia la sua lunga collaborazione con la Galleria Schneider, affiancando artisti come Corrado Cagli. Dal 1969 al 1974 lavora su dei bassorilievi in vetro resina sui quali vengono proiettati dei film astratti da lui creati, per creare dei quadri che si trasformino continuamente nel tempo. Nel 1979 lascia Roma per stabilirsi a New York, dove alla carriera di pittore affiancher\u00e0 quella di professore per la prestigiosa Cooper Union School of Art, dove insegner\u00e0 ininterrottamente dal 1984 al 2014. L'opera pittorica di Vanni \u00e8 segnata da una visione estremamente personale, lontana dalle correnti e dai movimenti che hanno caratterizzato la seconda met\u00e0 del XX secolo. Memore delle lunghe conversazioni avute da Vanni nella sua primissima giovent\u00f9, con il filosofo e pittore futurista Alberto Bragaglia, le sue opere sono contrassegnate da un \u201ceclettismo\u201d formale programmatico, alla base del quale resta costante una conoscenza profonda delle molteplici tecniche artistiche utilizzate (tra cui il mosaico, l\u2019affresco e la tempera ad uovo). Pur esprimendosi per lo pi\u00f9 in cicli di opere dove l\u2019astrazione formale \u00e8 la principale componente figurativa, sono da sottolineare alcune opere dove Vanni ha dato prova di una importante padronanza dell\u2019arte figurativa. Importanti e numerose sono le sue realizzazioni anche nel campo dell\u2019illustrazione. Sue sono le illustrazioni per la novella ''Agostino'' di Alberto Moravia, per il libro ''Love'' di Lowell A. Siff e delle ''Contes de Cristal'' di Alice Col\u00e9no. Ha tenuto mostre personali in Italia e all\u2019estero ed esposto in mostre collettive di rappresentanza italiana nei musei e nelle gallerie di ogni parte del mondo. "}], "co2_eq_emissions": {"emissions": "8g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "it5-small-wiki-summarization", "results": [{"task": {"type": "wiki-summarization", "name": "Wikipedia Summarization"}, "dataset": {"name": "WITS", "type": "wits"}, "metrics": [{"type": "rouge1", "value": 0.337, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.191, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.306, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.504, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/it5-small-wiki-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"wikipedia",
"summarization",
"wits",
"it",
"dataset:wits",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# IT5 Small for Wikipedia Summarization ️ 🇮🇹
This repository contains the checkpoint for the IT5 Small model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# IT5 Small for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# IT5 Small for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the IT5 Small model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Base for Formal-to-informal Style Transfer 🤗
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
f2i = pipeline("text2text-generation", model='it5/mt5-base-formal-to-informal')
f2i("Vi ringrazio infinitamente per vostra disponibilità")
>>> [{"generated_text": "e grazie per la vostra disponibilità!"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-formal-to-informal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-formal-to-informal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint TBD},
url={TBD},
year={2022}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Questa performance \u00e8 a dir poco spiacevole."}, {"text": "In attesa di un Suo cortese riscontro, Le auguriamo un piacevole proseguimento di giornata."}, {"text": "Questa visione mi procura una goduria indescrivibile."}, {"text": "qualora ci\u00f2 possa interessarti, ti pregherei di contattarmi."}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "mt5-base-formal-to-informal", "results": [{"task": {"type": "formality-style-transfer", "name": "Formal-to-informal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.653, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.449, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.632, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.667, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-base-formal-to-informal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"t5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for Formal-to-informal Style Transfer
This repository contains the checkpoint for the mT5 Base model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #t5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Base for News Headline Generation 📣 🇮🇹
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
hg = pipeline("text2text-generation", model='it5/mt5-base-headline-generation')
hg("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-headline-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-headline-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "headline-generation"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-headline-generation", "results": [{"task": {"type": "headline-generation", "name": "Headline generation"}, "dataset": {"name": "HeadGen-IT", "type": "headgen_it"}, "metrics": [{"type": "rouge1", "value": 0.302, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.109, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.265, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.427, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-base-headline-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"headline-generation",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for News Headline Generation 🇮🇹
This repository contains the checkpoint for the mT5 Base model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Base for News Headline Style Transfer (Il Giornale to Repubblica) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
g2r = pipeline("text2text-generation", model='it5/mt5-base-ilgiornale-to-repubblica')
g2r("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-ilgiornale-to-repubblica")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-ilgiornale-to-repubblica")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-ilgiornale-to-repubblica", "results": [{"task": {"type": "headline-style-transfer-ilgiornale-to-repubblica", "name": "Headline style transfer (Il Giornale to Repubblica)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.282, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.101, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.248, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.411, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.815, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.773, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/mt5-base-ilgiornale-to-repubblica
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹
This repository contains the checkpoint for the mT5 Base model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Base for Informal-to-formal Style Transfer 🧐
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
i2f = pipeline("text2text-generation", model='it5/mt5-base-informal-to-formal')
i2f("nn capisco xke tt i ragazzi lo fanno")
>>> [{"generated_text": "non comprendo perché tutti i ragazzi agiscono così"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-informal-to-formal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-informal-to-formal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "maronn qualcuno mi spieg' CHECCOSA SUCCEDE?!?!"}, {"text": "wellaaaaaaa, ma frat\u00e9 sei proprio troppo simpatiko, grazieeee!!"}, {"text": "nn capisco xke tt i ragazzi lo fanno"}, {"text": "IT5 \u00e8 SUPERMEGA BRAVISSIMO a capire tt il vernacolo italiano!!!"}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "mt5-base-informal-to-formal", "results": [{"task": {"type": "formality-style-transfer", "name": "Informal-to-formal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.661, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.471, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.642, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.712, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-base-informal-to-formal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for Informal-to-formal Style Transfer
This repository contains the checkpoint for the mT5 Base model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# mT5 Base for News Summarization ✂️🗞️ 🇮🇹
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on news summarization on the [Fanpage](https://huggingface.co/datasets/ARTeLab/fanpage) and [Il Post](https://huggingface.co/datasets/ARTeLab/ilpost) corpora as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
newsum = pipeline("summarization", model='it5/mt5-base-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-news-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "fanpage", "ilpost", "summarization"], "datasets": ["ARTeLab/fanpage", "ARTeLab/ilpost"], "metrics": ["rouge"], "widget": [{"text": "Non lo vuole sposare. E\u2019 quanto emerge all\u2019interno dell\u2019ultima intervista di Raffaella Fico che, ringraziando Mancini per i buoni consigli elargiti al suo fidanzato, rimanda l\u2019idea del matrimonio per qualche anno ancora. La soubrette, che \u00e8 stata recentemente protagonista di una dedica di Supermario, non ha ancora intenzione di accasarsi perch\u00e9 \u00e8 sicura che per mettersi la fede al dito ci sia ancora tempo. Nonostante il suo Mario sia uno degli sportivi pi\u00f9 desiderati al mondo, l\u2019ex protagonista del Grande Fratello non ha alcuna intenzione di cedere seriamente alla sua corte. Solo qualche giorno fa, infatti, dopo l\u2019ultima bravata di Balotelli, Mancini gli aveva consigliato di sposare la sua Raffaella e di mettere la testa a posto. Chi pensava che sarebbe stato Mario a rispondere, per\u00f2, si \u00e8 sbagliato. A mettere le cose bene in chiaro \u00e8 la Fico che, intervistata dall\u2019emittente radiofonica Rtl 102.5, dice: \u00c8 presto per sposarsi, siamo ancora molto giovani. \u00c8 giusto che prima uno si realizzi nel proprio lavoro. E poi successivamente perch\u00e9 no, ci si pu\u00f2 anche pensare. Quando si \u00e8 giovani capita di fare qualche pazzia, quindi ci sta. Comunque i tabloid inglesi sono totalmente accaniti sulla sua vita privata quando poi dovrebbero interessarsi di pi\u00f9 di quello che fa sul campo. Lui non fa le cose con cattiveria, ma quando si \u00e8 giovani si fanno determinate cose senza stare a pensare se sono giuste o sbagliate. Mario ha gli obiettivi puntati addosso: pi\u00f9 per la sua vita privata che come giocatore. Per me pu\u00f2 anche andare in uno strip club, se non fa niente di male, con gli amici, per\u00f2 devo dire che alla fine torna sempre da me, sono la sua preferita."}, {"text": "Valerio \u00e8 giovanissimo ma gi\u00e0 una star. Fuori dall\u2019Ariston ragazzine e meno ragazzine passano ore anche sotto la pioggia per vederlo. Lui \u00e8 forte del suo talento e sicuro. Partecipa in gara tra i \u201cbig\u201d di diritto, per essere arrivato in finalissima nel programma Amici di Maria De Filippi e presenta il brano Per tutte le volte che scritta per lui da Pierdavide Carone. Valerio Scanu \u00e8 stato eliminato. Ma non \u00e8 detta l'ultima parola: il duetto di questa sera con Alessandra Amoroso potrebbe risollevarlo e farlo rientrare in gara. Che cosa \u00e8 successo alla giuria visto che sei stato eliminato anche se l\u2019esibizione era perfetta? Nn lo so. Sono andate bene le esibizioni, ero emozionato ma tranquillo. Ero contento ma ho cantato bene. Non sono passato e stasera ci sar\u00e0 il ballottaggio\u2026 Quali sono le differenze tra Amici e Sanremo? Sono due cose diverse. Amici ti prepara a salire sul palco di amici. A Sanremo ci devi arrivare\u2026 ho fatto pi\u00f9 di sessanta serate nel tour estivo, poi promozione del secondo disco. Una bella palestra. Sono cresciuto anche umanamente. Sono riuscito a percepire quello che il pubblico trasmette. L\u2019umilt\u00e0? Prima di tutto. Senn\u00f2 non sarei qui."}, {"text": "L\u2019azienda statunitense Broadcom, uno dei pi\u00f9 grandi produttori di semiconduttori al mondo, ha presentato un\u2019offerta per acquisire Qualcomm, altra grande societ\u00e0 degli Stati Uniti conosciuta soprattutto per la sua produzione di microprocessori Snapdragon (ARM), utilizzati in centinaia di milioni di smartphone in giro per il mondo. Broadcom ha proposto di acquistare ogni azione di Qualcomm al prezzo di 70 dollari, per un valore complessivo di circa 105 miliardi di dollari (130 miliardi se si comprendono 25 miliardi di debiti netti) . Se l\u2019operazione dovesse essere approvata, sarebbe una delle pi\u00f9 grandi acquisizioni di sempre nella storia del settore tecnologico degli Stati Uniti. Broadcom ha perfezionato per mesi la sua proposta di acquisto e, secondo i media statunitensi, avrebbe gi\u00e0 preso contatti con Qualcomm per trovare un accordo. Secondo gli analisti, Qualcomm potrebbe comunque opporsi all\u2019acquisizione perch\u00e9 il prezzo offerto \u00e8 di poco superiore a quello dell\u2019attuale valore delle azioni dell\u2019azienda. Ci potrebbero essere inoltre complicazioni sul piano dell\u2019antitrust da valutare, prima di un\u2019eventuale acquisizione."}, {"text": "Dal 31 maggio \u00e8 infine partita la piattaforma ITsART, a pi\u00f9 di un anno da quando \u2013 durante il primo lockdown \u2013 il ministro della Cultura Dario Franceschini ne aveva parlato come di \u00abuna sorta di Netflix della cultura\u00bb, pensata per \u00aboffrire a tutto il mondo la cultura italiana a pagamento\u00bb. \u00c8 presto per dare giudizi definitivi sulla piattaforma, e di certo sar\u00e0 difficile farlo anche pi\u00f9 avanti senza numeri precisi. Al momento, l\u2019unica cosa che si pu\u00f2 fare \u00e8 guardare com\u2019\u00e8 fatto il sito, contare quanti contenuti ci sono (circa 700 \u201ctitoli\u201d, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro variet\u00e0. Intanto, una cosa notata da pi\u00f9 parti \u00e8 che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-news-summarization", "results": [{"task": {"type": "news-summarization", "name": "News Summarization"}, "dataset": {"name": "NewsSum-IT", "type": "newssum-it"}, "metrics": [{"type": "rouge1", "value": 0.34, "name": "Test Rouge1 IlPost"}, {"type": "rouge2", "value": 0.164, "name": "Test Rouge2 IlPost"}, {"type": "rougeL", "value": 0.275, "name": "Test RougeL IlPost"}, {"type": "bertscore", "value": 0.399, "name": "Test BERTScore IlPost", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "rouge1", "value": 0.341, "name": "Test Rouge1 Fanpage"}, {"type": "rouge2", "value": 0.158, "name": "Test Rouge2 Fanpage"}, {"type": "rougeL", "value": 0.249, "name": "Test RougeL Fanpage"}, {"type": "bertscore", "value": 0.387, "name": "Test BERTScore Fanpage", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-base-news-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"fanpage",
"ilpost",
"summarization",
"it",
"dataset:ARTeLab/fanpage",
"dataset:ARTeLab/ilpost",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for News Summarization ️️ 🇮🇹
This repository contains the checkpoint for the mT5 Base model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Base for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on extractive question answering on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qa = pipeline("text2text-generation", model='it5/mt5-base-question-answering')
qa("In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale è riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie. Domanda: La foresta pluviale amazzonica è diventata per lo più una foresta interna intorno a quale evento globale?")
>>> [{"generated_text": "ultimo massimo glaciale"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-question-answering")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-question-answering")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "squad_it", "text2text-question-answering", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["f1", "exact-match"], "widget": [{"text": "In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45\u00b0. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale \u00e8 riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia variet\u00e0 di specie. Domanda: La foresta pluviale amazzonica \u00e8 diventata per lo pi\u00f9 una foresta interna intorno a quale evento globale?"}, {"text": "L' embargo non era uniforme in tutta Europa. Dei nove membri della Comunit\u00e0 Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un embargo totale, il Regno Unito e la Francia hanno ricevuto forniture quasi ininterrotte (poich\u00e8 si sono rifiutati di consentire all' America di utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi che agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei sei giorni. Il suo successore, Ted Heath, ribalt\u00f2 questa politica nel 1970, chiedendo a Israele di ritirarsi ai suoi confini prima del 1967. Domanda: Il Regno Unito e la Francia non hanno avuto interruzioni dell' approvvigionamento petrolifero in quanto non hanno consentito a quale paese di utilizzare il loro aeroporto?"}, {"text": "Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma pi\u00f9 conosciuta (e attuale) con le lettere minuscole \"abc\" racchiuse in un unico cerchio nero. Il nuovo logo esordisce in onda per le promozioni di ABC all' inizio della stagione 1963-64. Le lettere ricordano fortemente il carattere tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti, ma condividono anche similitudini con diversi altri caratteri, come ITC Avant Garde e Horatio, e lo Chalet pi\u00f9 simile. La semplicit\u00e0 del logo ha reso pi\u00f9 facile la riprogettazione e la duplicazione, il che ha conferito un beneficio per ABC (soprattutto prima dell' avvento della computer grafica). Domanda: Di quale carattere tipografico ricordano le lettere dell' iconico logo ABC?"}, {"text": "La fotorespirazione pu\u00f2 verificarsi quando la concentrazione di ossigeno \u00e8 troppo elevata. Rubisco non \u00e8 in grado di distinguere molto bene tra ossigeno e anidride carbonica, quindi pu\u00f2 accidentalmente aggiungere O2 invece di CO2 a RuBP. Questo processo riduce l' efficienza della fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero. Pu\u00f2 sprecare fino alla met\u00e0 del carbonio fissato dal ciclo di Calvin. Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la concentrazione di anidride carbonica rispetto all' ossigeno all' interno del cloroplasto, aumentando l' efficienza della fotosintesi. Questi meccanismi sono chiamati meccanismi di concentrazione dell' anidride carbonica, o CCM. Tra questi figurano il metabolismo degli acidi crassulaceanici, la fissazione del carbonio C4 e i pirenoidi. I cloroplasti negli impianti C4 sono notevoli in quanto presentano un chiaro dimorfismo cloroplastico. Domanda: Che cosa pu\u00f2 fare rubisco per errore?"}], "co2_eq_emissions": {"emissions": "40g\"", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-question-answering", "results": [{"task": {"type": "question-answering", "name": "Question Answering"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "f1", "value": 0.757, "name": "Test F1"}, {"type": "exact-match", "value": 0.663, "name": "Test Exact Match"}]}]}]}
|
it5/mt5-base-question-answering
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"squad_it",
"text2text-question-answering",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the mT5 Base model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Base for Question Generation 💭 🇮🇹
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on question generation on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qg = pipeline("text2text-generation", model='it5/mt5-base-question-generation')
qg("Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto più autorevole di allora è venuto dalla facoltà di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che causò una "grande pestilenza nell\' aria". Questa relazione è diventata la prima e più diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria più accettata. Oggi, questo è conosciuto come la teoria di Miasma. La parola "peste" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che è diventato il termine medico. Risposta: re di Francia")
>>> [{"generated_text": "Per chi è stato redatto il referto medico?"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-question-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-question-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "question-generation", "squad_it", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto pi\u00f9 autorevole di allora \u00e8 venuto dalla facolt\u00e0 di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che caus\u00f2 una \"grande pestilenza nell' aria\". Questa relazione \u00e8 diventata la prima e pi\u00f9 diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria pi\u00f9 accettata. Oggi, questo \u00e8 conosciuto come la teoria di Miasma. La parola \"peste\" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che \u00e8 diventato il termine medico. Risposta: re di Francia"}, {"text": "Il 14 aprile 2011, ABC ha annullato le lunghe opere di sapone All My Children e One Life to Live dopo 41 e 43 anni in onda, rispettivamente (in seguito al contraccolpo dei tifosi, ABC ha venduto i diritti ad entrambi gli spettacoli a Prospect Park, che alla fine ha rilanciato i saponi su Hulu per un' ulteriore stagione nel 2013 e con entrambe le societ\u00e0 che si citano in giudizio per accuse di interferenza con il processo di rilancio degli spettacoli, mancato pagamento delle tasse di licenza. Il talk/lifestyle show che ha sostituito One Life to Live, The Revolution, non \u00e8 riuscito a generare giudizi soddisfacenti ed \u00e8 stato a sua volta annullato dopo soli sette mesi. La stagione 2011-12 ha visto l' ABC cadere al quarto posto nel 18-49 demografico nonostante rinnovando una manciata di nuovi spettacoli (compresi i drammi matricole Scandal, Revenge e Once Upon a Time) per la seconda stagione. Risposta: Hulu"}, {"text": "L' American Broadcasting Company (ABC) (stlized nel suo logo come abc dal 1957) \u00e8 una rete televisiva commerciale americana trasmissione televisiva che \u00e8 di propriet\u00e0 del Disney-ABC Television Group, una controllata della divisione Disney Media Networks di The Walt Disney Company. La rete fa parte delle grandi reti televisive Big Three. La rete ha sede a Columbus Avenue e West 66th Street a Manhattan, con ulteriori uffici e stabilimenti di produzione a New York City, Los Angeles e Burbank, California. Risposta: Manhattan"}, {"text": "La disobbedienza civile non rivoluzionaria \u00e8 una semplice disobbedienza delle leggi sulla base del fatto che sono giudicate \"sbagliate\" da una coscienza individuale, o come parte di uno sforzo per rendere alcune leggi inefficaci, per causarne l' abrogazione, o per esercitare pressioni per ottenere i propri desideri politici su qualche altra questione. La disobbedienza civile rivoluzionaria \u00e8 pi\u00f9 che altro un tentativo attivo di rovesciare un governo (o di cambiare le tradizioni culturali, i costumi sociali, le credenze religiose, ecc. La rivoluzione non deve necessariamente essere politica, cio\u00e8 \"rivoluzione culturale\", implica semplicemente un cambiamento radicale e diffuso in una sezione del tessuto sociale). Gli atti di Gandhi sono stati descritti come disobbedienza civile rivoluzionaria. \u00c8 stato affermato che gli ungheresi sotto Ferenc De\u00e1k hanno diretto una disobbedienza civile rivoluzionaria contro il governo austriaco. Thoreau ha anche scritto di disobbedienza civile realizzando \"rivoluzione pacifica\". Howard Zinn, Harvey Wheeler e altri hanno identificato il diritto sposato nella Dichiarazione d' Indipendenza di \"alterare o abolire\" un governo ingiusto come principio di disobbedienza civile. Risposta: Ferenc De\u00e1k"}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-question-generation", "results": [{"task": {"type": "question-generation", "name": "Question generation"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "rouge1", "value": 0.346, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.174, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.324, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.495, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-base-question-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"question-generation",
"squad_it",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for Question Generation 🇮🇹
This repository contains the checkpoint for the mT5 Base model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
r2g = pipeline("text2text-generation", model='it5/mt5-small-repubblica-to-ilgiornale')
r2g("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-repubblica-to-ilgiornale")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-repubblica-to-ilgiornale")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-repubblica-to-ilgiornale", "results": [{"task": {"type": "headline-style-transfer-repubblica-to-ilgiornale", "name": "Headline style transfer (Repubblica to Il Giornale)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.256, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.08, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.223, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.384, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.775, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.825, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/mt5-base-repubblica-to-ilgiornale
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# mT5 Base for Wikipedia Summarization ✂️📑 🇮🇹
This repository contains the checkpoint for the [mT5 Base](https://huggingface.co/google/mt5-base) model fine-tuned on Wikipedia summarization on the [WITS](https://www.semanticscholar.org/paper/WITS%3A-Wikipedia-for-Italian-Text-Summarization-Casola-Lavelli/ad6c83122e721c7c0db4a40727dac3b4762cd2b1) dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
wikisum = pipeline("summarization", model='it5/mt5-base-wiki-summarization')
wikisum("Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale è separata dal passaggio Rodman. La sua altezza è di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola è presente il rifugio Guillochon, sito storico antartico. ")
>>> [{"generated_text": "L' '''isola di Rabot''' si trova in prossimità dell'isola di Renaud, a sud dell'Argentina."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-base-wiki-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-base-wiki-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "wikipedia", "summarization", "wits"], "datasets": ["wits"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "La 5\u00aa Commissione ha competenza per i disegni di legge riguardanti le specifiche materie del bilancio, del personale e dei servizi del Ministero dell'economia, nonch\u00e9 per i disegni di legge riguardanti la materia finanziaria. La Commissione \u00e8 composta da 26 senatori (di cui 2 segretari, 2 vicepresidenti di cui 1 componente esterno, e un presidente) scelti in modo omogeneo tra i componenti di quel ramo del Parlamento, in modo da rispecchiarne le forze politiche presenti. Essi sono scelti dai gruppi parlamentari (e non dal Presidente, come invece accade per l'organismo della Giunta parlamentare): per la nomina dei membri ciascun Gruppo, entro cinque giorni dalla propria costituzione, procede, dandone comunicazione alla Presidenza del Senato, alla designazione dei propri rappresentanti nelle singole Commissioni permanenti. Ogni senatore chiamato a far parte del governo o eletto presidente della Commissione \u00e8, per la durata della carica, sostituito dal suo gruppo nella Commissione con un altro senatore, che continuer\u00e0 ad appartenere anche alla Commissione di provenienza. Tranne in rari casi nessun Senatore pu\u00f2 essere assegnato a pi\u00f9 di una Commissione permanente. Le Commissioni permanenti sono rinnovate dopo il primo biennio della legislatura ed i loro componenti possono essere confermati."}, {"text": "Interni della chiesa Si pensa che gi\u00e0 ai tempi di Gediminas vi fosse una piccola chiesa, probabilmente in legno. Nel 1408 circa Vitoldo costru\u00ec la chiesa dello Spirito Santo che and\u00f2 in seguito ampliata. Nel 1501 Alessandro Jagellone lo don\u00f2 al monastero domenicano, il pi\u00f9 antico della Lituania, che nel 1679-88 fu ampliato e ricostruito. Di quel periodo sopravvivono le mura della chiesa, mentre l'arredamento interno fu realizzato nel 1749-1770 e la cupola affront\u00f2 dei lavori di restauro nel 1752-1760. Nel 1844 le autorit\u00e0 zariste chiusero il monastero e la chiesa divenne parrocchiale. Oggi serve la comunit\u00e0 polacca di Vilnius. Su via \u0160v. Ignoto fu fondato un monastero domenicano nel 1501. Come molti altri edifici, questo monastero fu convertito in una prigione dalle autorit\u00e0 zariste nel 1807. Costitu\u00ec un luogo di prigionia per molti patrioti lituani, nello specifico i Filareti, i quali parteciparono alle rivolte del 1831 e del 1863. Organo La chiesa si trova lateralmente rispetto alla strada e non ha una facciata principale ben disegnata. L'altezza, inclusa la cupola, \u00e8 di 51 m. La parte inferiore della facciata (con piccole torri gemelle) \u00e8 ricoperta da edifici conventuali e l'esterno presenta caratteristiche architettoniche tipiche del tardo barocco. Celebre per i fantasiosi ornamenti rococ\u00f2, l'interno della chiesa \u00e8 tra i pi\u00f9 celebri della Lituania per via dei cartigli con vari stemmi e affreschi lungo la navata: vi sono 16 altari nella chiesa. Gli altari e il pulpito sono assai decorati con sculture e ornamenti rotondi e in rilievo. Tra gli affreschi barocchi, si pensi alla composizione multi-figurale intitolata ''Apoteosi dello Spirito Santo'' (neobarocco, XIX secolo) nella cupola, 45 dipinti nella chiesa (tra cui un'immagine di Santa Barbara con un'ambientazione del XVII o XVIII secolo, una di Santa Caterina da Siena in stile rococ\u00f2 di Szymon Czechowicz, un ritratto di Alessandro Jagellone di un artista sconosciuto della seconda met\u00e0 del XVIII secolo). Un ingresso sotto l'altare conduce alle grandi volte, labirintiche, con molte stanze e cripte: i sotterranei ospitano i resti di centinaia di residenti di Vilnius, alcuni dei quali mummificatisi naturalmente, e sono circondati da leggende metropolitane. Sebbene l'esistenza dei sotterranei fosse nota, i primi sforzi per esplorare e mappare le cripte furono abbandonate nonostante lo sforzo degli studenti dell'Universit\u00e0 di Vilnius negli anni '30. Tuttavia, questi ultimi non avevano osservato le corrette procedure archeologiche e causarono infatti molti danni: il modus operandi prevedeva lo smistamento delle ossa ponendo tutti i teschi sugli scaffali e rimuovendoli le tombe. Da allora, i resti sono stati spostati molte volte lasciandoli in uno stato casuale e disorganizzato. Stando alle leggende che aleggiano sul luogo, i resti sarebbero di soldati francesi recatisi in citt\u00e0 nel corso della campagna di Russia del 1812 avviata da Napoleone Bonaparte, di vittime dell'Inquisizione o della peste nera. Pi\u00f9 romantiche risultano le affermazioni di chi sostiene che i corridoi sotterranei facevano parte di una rete di passaggi pi\u00f9 ampia che consentiva agli amanti leggendari Barbara Radziwi\u0142\u0142 e Sigismondo II Augusto di incontrarsi in segreto. Nel 2011, gli antropologi dell'Universit\u00e0 di Vilnius, guidati da Rimantas Jankauskas, avviarono uno studio sui corpi mummificati, stimando settimane dopo che le volte conservassero i resti di circa 600 persone, tra cui molte donne e bambini dalla met\u00e0 del XVIII secolo all'inizio del XIX secolo. Il team ha selezionato i cadaveri meglio conservati e ha eseguito la loro tomografia. I risultati mostrano che molte persone erano in sovrappeso e avevano l'alluce valgo, il che ha portato alla conclusione che si trattava di alti borghesi o comunque di cittadini abbienti. "}, {"text": "Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale \u00e8 separata dal passaggio Rodman. La sua altezza \u00e8 di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola \u00e8 presente il rifugio Guillochon, sito storico antartico. "}, {"text": "Vanni ha la sua prima mostra personale nel 1948, alla Galleria Margherita di Roma. Nel 1949 vince una borsa di studio che lo porter\u00e0 a studiare ad Amsterdam sotto la guida del pittore neoplastico Friedrich Vordemberge-Gildewart. Nel 1952 vince una Fulbright Scholarship che lo porter\u00e0 a studiare in America, alla Yale University, sotto la guida di Josef Albers. Dal 1953 al 1960 si stabilisce a Parigi, dove illustra alcuni libri per bambini che in seguito vinceranno il premio del Club des Editeurs. Nel 1954 lavora come consulente del colore per il documentario su Picasso di Luciano Emmer, e nel 1955 comincia la sua lunga collaborazione con la Galleria Schneider, affiancando artisti come Corrado Cagli. Dal 1969 al 1974 lavora su dei bassorilievi in vetro resina sui quali vengono proiettati dei film astratti da lui creati, per creare dei quadri che si trasformino continuamente nel tempo. Nel 1979 lascia Roma per stabilirsi a New York, dove alla carriera di pittore affiancher\u00e0 quella di professore per la prestigiosa Cooper Union School of Art, dove insegner\u00e0 ininterrottamente dal 1984 al 2014. L'opera pittorica di Vanni \u00e8 segnata da una visione estremamente personale, lontana dalle correnti e dai movimenti che hanno caratterizzato la seconda met\u00e0 del XX secolo. Memore delle lunghe conversazioni avute da Vanni nella sua primissima giovent\u00f9, con il filosofo e pittore futurista Alberto Bragaglia, le sue opere sono contrassegnate da un \u201ceclettismo\u201d formale programmatico, alla base del quale resta costante una conoscenza profonda delle molteplici tecniche artistiche utilizzate (tra cui il mosaico, l\u2019affresco e la tempera ad uovo). Pur esprimendosi per lo pi\u00f9 in cicli di opere dove l\u2019astrazione formale \u00e8 la principale componente figurativa, sono da sottolineare alcune opere dove Vanni ha dato prova di una importante padronanza dell\u2019arte figurativa. Importanti e numerose sono le sue realizzazioni anche nel campo dell\u2019illustrazione. Sue sono le illustrazioni per la novella ''Agostino'' di Alberto Moravia, per il libro ''Love'' di Lowell A. Siff e delle ''Contes de Cristal'' di Alice Col\u00e9no. Ha tenuto mostre personali in Italia e all\u2019estero ed esposto in mostre collettive di rappresentanza italiana nei musei e nelle gallerie di ogni parte del mondo. "}], "co2_eq_emissions": {"emissions": "40g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-base-wiki-summarization", "results": [{"task": {"type": "wiki-summarization", "name": "Wikipedia Summarization"}, "dataset": {"name": "WITS", "type": "wits"}, "metrics": [{"type": "rouge1", "value": 0.348, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.2, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.315, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.52, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-base-wiki-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"wikipedia",
"summarization",
"wits",
"it",
"dataset:wits",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Base for Wikipedia Summarization ️ 🇮🇹
This repository contains the checkpoint for the mT5 Base model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Base for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Base for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Base model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for Formal-to-informal Style Transfer 🤗
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
f2i = pipeline("text2text-generation", model='it5/mt5-small-formal-to-informal')
f2i("Vi ringrazio infinitamente per vostra disponibilità")
>>> [{"generated_text": "e grazie per la vostra disponibilità!"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-formal-to-informal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-formal-to-informal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Questa performance \u00e8 a dir poco spiacevole."}, {"text": "In attesa di un Suo cortese riscontro, Le auguriamo un piacevole proseguimento di giornata."}, {"text": "Questa visione mi procura una goduria indescrivibile."}, {"text": "qualora ci\u00f2 possa interessarti, ti pregherei di contattarmi."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "mt5-small-formal-to-informal", "results": [{"task": {"type": "formality-style-transfer", "name": "Formal-to-informal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.651, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.45, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.631, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.666, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-small-formal-to-informal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for Formal-to-informal Style Transfer
This repository contains the checkpoint for the mT5 Small model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for Formal-to-informal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on Formal-to-informal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for News Headline Generation 📣 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
hg = pipeline("text2text-generation", model='it5/mt5-small-headline-generation')
hg("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-headline-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-headline-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "headline-generation"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-headline-generation", "results": [{"task": {"type": "headline-generation", "name": "Headline generation"}, "dataset": {"name": "HeadGen-IT", "type": "headgen_it"}, "metrics": [{"type": "rouge1", "value": 0.277, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.094, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.244, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.408, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-small-headline-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"headline-generation",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for News Headline Generation 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #headline-generation #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for News Headline Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline generation on the Italian HeadGen-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
g2r = pipeline("text2text-generation", model='it5/mt5-small-ilgiornale-to-repubblica')
g2r("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-ilgiornale-to-repubblica")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-ilgiornale-to-repubblica")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-ilgiornale-to-repubblica", "results": [{"task": {"type": "headline-style-transfer-ilgiornale-to-repubblica", "name": "Headline style transfer (Il Giornale to Repubblica)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.248, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.081, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.219, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.381, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.785, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.767, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/mt5-small-ilgiornale-to-repubblica
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for News Headline Style Transfer (Il Giornale to Repubblica) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Il Giornale to Repubblica direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Repubblica from the full body of an article written in the style of Il Giornale. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for Informal-to-formal Style Transfer 🧐
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
i2f = pipeline("text2text-generation", model='it5/mt5-small-informal-to-formal')
i2f("nn capisco xke tt i ragazzi lo fanno")
>>> [{"generated_text": "non comprendo perché tutti i ragazzi agiscono così"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-informal-to-formal")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-informal-to-formal")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "style-transfer", "formality-style-transfer"], "datasets": ["yahoo/xformal_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "maronn qualcuno mi spieg' CHECCOSA SUCCEDE?!?!"}, {"text": "wellaaaaaaa, ma frat\u00e9 sei proprio troppo simpatiko, grazieeee!!"}, {"text": "nn capisco xke tt i ragazzi lo fanno"}, {"text": "IT5 \u00e8 SUPERMEGA BRAVISSIMO a capire tt il vernacolo italiano!!!"}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "model-index": [{"name": "mt5-small-informal-to-formal", "results": [{"task": {"type": "formality-style-transfer", "name": "Informal-to-formal Style Transfer"}, "dataset": {"name": "XFORMAL (Italian Subset)", "type": "xformal_it"}, "metrics": [{"type": "rouge1", "value": 0.638, "name": "Avg. Test Rouge1"}, {"type": "rouge2", "value": 0.446, "name": "Avg. Test Rouge2"}, {"type": "rougeL", "value": 0.62, "name": "Avg. Test RougeL"}, {"type": "bertscore", "value": 0.684, "name": "Avg. Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-small-informal-to-formal
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"style-transfer",
"formality-style-transfer",
"it",
"dataset:yahoo/xformal_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for Informal-to-formal Style Transfer
This repository contains the checkpoint for the mT5 Small model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #style-transfer #formality-style-transfer #it #dataset-yahoo/xformal_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for Informal-to-formal Style Transfer \n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on Informal-to-formal style transfer on the Italian subset of the XFORMAL dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# mT5 Small for News Summarization ✂️🗞️ 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on news summarization on the [Fanpage](https://huggingface.co/datasets/ARTeLab/fanpage) and [Il Post](https://huggingface.co/datasets/ARTeLab/ilpost) corpora as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
newsum = pipeline("summarization", model='it5/mt5-small-news-summarization')
newsum("Dal 31 maggio è infine partita la piattaforma ITsART, a più di un anno da quando – durante il primo lockdown – il ministro della Cultura Dario Franceschini ne aveva parlato come di «una sorta di Netflix della cultura», pensata per «offrire a tutto il mondo la cultura italiana a pagamento». È presto per dare giudizi definitivi sulla piattaforma, e di certo sarà difficile farlo anche più avanti senza numeri precisi. Al momento, l’unica cosa che si può fare è guardare com’è fatto il sito, contare quanti contenuti ci sono (circa 700 “titoli”, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro varietà. Intanto, una cosa notata da più parti è che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente.")
>>> [{"generated_text": "ITsART, la Netflix della cultura italiana, parte da maggio. Film, documentari, spettacoli teatrali e musicali disponibili sul nuovo sito a pagamento."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-news-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-news-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "fanpage", "ilpost", "summarization"], "datasets": ["ARTeLab/fanpage", "ARTeLab/ilpost"], "metrics": ["rouge"], "widget": [{"text": "Non lo vuole sposare. E\u2019 quanto emerge all\u2019interno dell\u2019ultima intervista di Raffaella Fico che, ringraziando Mancini per i buoni consigli elargiti al suo fidanzato, rimanda l\u2019idea del matrimonio per qualche anno ancora. La soubrette, che \u00e8 stata recentemente protagonista di una dedica di Supermario, non ha ancora intenzione di accasarsi perch\u00e9 \u00e8 sicura che per mettersi la fede al dito ci sia ancora tempo. Nonostante il suo Mario sia uno degli sportivi pi\u00f9 desiderati al mondo, l\u2019ex protagonista del Grande Fratello non ha alcuna intenzione di cedere seriamente alla sua corte. Solo qualche giorno fa, infatti, dopo l\u2019ultima bravata di Balotelli, Mancini gli aveva consigliato di sposare la sua Raffaella e di mettere la testa a posto. Chi pensava che sarebbe stato Mario a rispondere, per\u00f2, si \u00e8 sbagliato. A mettere le cose bene in chiaro \u00e8 la Fico che, intervistata dall\u2019emittente radiofonica Rtl 102.5, dice: \u00c8 presto per sposarsi, siamo ancora molto giovani. \u00c8 giusto che prima uno si realizzi nel proprio lavoro. E poi successivamente perch\u00e9 no, ci si pu\u00f2 anche pensare. Quando si \u00e8 giovani capita di fare qualche pazzia, quindi ci sta. Comunque i tabloid inglesi sono totalmente accaniti sulla sua vita privata quando poi dovrebbero interessarsi di pi\u00f9 di quello che fa sul campo. Lui non fa le cose con cattiveria, ma quando si \u00e8 giovani si fanno determinate cose senza stare a pensare se sono giuste o sbagliate. Mario ha gli obiettivi puntati addosso: pi\u00f9 per la sua vita privata che come giocatore. Per me pu\u00f2 anche andare in uno strip club, se non fa niente di male, con gli amici, per\u00f2 devo dire che alla fine torna sempre da me, sono la sua preferita."}, {"text": "Valerio \u00e8 giovanissimo ma gi\u00e0 una star. Fuori dall\u2019Ariston ragazzine e meno ragazzine passano ore anche sotto la pioggia per vederlo. Lui \u00e8 forte del suo talento e sicuro. Partecipa in gara tra i \u201cbig\u201d di diritto, per essere arrivato in finalissima nel programma Amici di Maria De Filippi e presenta il brano Per tutte le volte che scritta per lui da Pierdavide Carone. Valerio Scanu \u00e8 stato eliminato. Ma non \u00e8 detta l'ultima parola: il duetto di questa sera con Alessandra Amoroso potrebbe risollevarlo e farlo rientrare in gara. Che cosa \u00e8 successo alla giuria visto che sei stato eliminato anche se l\u2019esibizione era perfetta? Nn lo so. Sono andate bene le esibizioni, ero emozionato ma tranquillo. Ero contento ma ho cantato bene. Non sono passato e stasera ci sar\u00e0 il ballottaggio\u2026 Quali sono le differenze tra Amici e Sanremo? Sono due cose diverse. Amici ti prepara a salire sul palco di amici. A Sanremo ci devi arrivare\u2026 ho fatto pi\u00f9 di sessanta serate nel tour estivo, poi promozione del secondo disco. Una bella palestra. Sono cresciuto anche umanamente. Sono riuscito a percepire quello che il pubblico trasmette. L\u2019umilt\u00e0? Prima di tutto. Senn\u00f2 non sarei qui."}, {"text": "L\u2019azienda statunitense Broadcom, uno dei pi\u00f9 grandi produttori di semiconduttori al mondo, ha presentato un\u2019offerta per acquisire Qualcomm, altra grande societ\u00e0 degli Stati Uniti conosciuta soprattutto per la sua produzione di microprocessori Snapdragon (ARM), utilizzati in centinaia di milioni di smartphone in giro per il mondo. Broadcom ha proposto di acquistare ogni azione di Qualcomm al prezzo di 70 dollari, per un valore complessivo di circa 105 miliardi di dollari (130 miliardi se si comprendono 25 miliardi di debiti netti) . Se l\u2019operazione dovesse essere approvata, sarebbe una delle pi\u00f9 grandi acquisizioni di sempre nella storia del settore tecnologico degli Stati Uniti. Broadcom ha perfezionato per mesi la sua proposta di acquisto e, secondo i media statunitensi, avrebbe gi\u00e0 preso contatti con Qualcomm per trovare un accordo. Secondo gli analisti, Qualcomm potrebbe comunque opporsi all\u2019acquisizione perch\u00e9 il prezzo offerto \u00e8 di poco superiore a quello dell\u2019attuale valore delle azioni dell\u2019azienda. Ci potrebbero essere inoltre complicazioni sul piano dell\u2019antitrust da valutare, prima di un\u2019eventuale acquisizione."}, {"text": "Dal 31 maggio \u00e8 infine partita la piattaforma ITsART, a pi\u00f9 di un anno da quando \u2013 durante il primo lockdown \u2013 il ministro della Cultura Dario Franceschini ne aveva parlato come di \u00abuna sorta di Netflix della cultura\u00bb, pensata per \u00aboffrire a tutto il mondo la cultura italiana a pagamento\u00bb. \u00c8 presto per dare giudizi definitivi sulla piattaforma, e di certo sar\u00e0 difficile farlo anche pi\u00f9 avanti senza numeri precisi. Al momento, l\u2019unica cosa che si pu\u00f2 fare \u00e8 guardare com\u2019\u00e8 fatto il sito, contare quanti contenuti ci sono (circa 700 \u201ctitoli\u201d, tra film, documentari, spettacoli teatrali e musicali e altri eventi) e provare a dare un giudizio sul loro valore e sulla loro variet\u00e0. Intanto, una cosa notata da pi\u00f9 parti \u00e8 che diversi contenuti di ITsART sono a pagamento sulla piattaforma sebbene altrove, per esempio su RaiPlay, siano invece disponibili gratuitamente."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-news-summarization", "results": [{"task": {"type": "news-summarization", "name": "News Summarization"}, "dataset": {"name": "NewsSum-IT", "type": "newssum-it"}, "metrics": [{"type": "rouge1", "value": 0.32, "name": "Test Rouge1 IlPost"}, {"type": "rouge2", "value": 0.154, "name": "Test Rouge2 IlPost"}, {"type": "rougeL", "value": 0.26, "name": "Test RougeL IlPost"}, {"type": "bertscore", "value": 0.38, "name": "Test BERTScore IlPost", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "rouge1", "value": 0.326, "name": "Test Rouge1 Fanpage"}, {"type": "rouge2", "value": 0.145, "name": "Test Rouge2 Fanpage"}, {"type": "rougeL", "value": 0.236, "name": "Test RougeL Fanpage"}, {"type": "bertscore", "value": 0.37, "name": "Test BERTScore Fanpage", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-small-news-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"fanpage",
"ilpost",
"summarization",
"it",
"dataset:ARTeLab/fanpage",
"dataset:ARTeLab/ilpost",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for News Summarization ️️ 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #fanpage #ilpost #summarization #it #dataset-ARTeLab/fanpage #dataset-ARTeLab/ilpost #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for News Summarization ️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news summarization on the Fanpage and Il Post corpora as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on extractive question answering on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qa = pipeline("text2text-generation", model='it5/mt5-small-question-answering')
qa("In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale è riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie. Domanda: La foresta pluviale amazzonica è diventata per lo più una foresta interna intorno a quale evento globale?")
>>> [{"generated_text": "ultimo massimo glaciale"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-question-answering")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-question-answering")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "squad_it", "text2text-question-answering", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["f1", "exact-match"], "widget": [{"text": "In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45\u00b0. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale \u00e8 riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia variet\u00e0 di specie. Domanda: La foresta pluviale amazzonica \u00e8 diventata per lo pi\u00f9 una foresta interna intorno a quale evento globale?"}, {"text": "L' embargo non era uniforme in tutta Europa. Dei nove membri della Comunit\u00e0 Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un embargo totale, il Regno Unito e la Francia hanno ricevuto forniture quasi ininterrotte (poich\u00e8 si sono rifiutati di consentire all' America di utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi che agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei sei giorni. Il suo successore, Ted Heath, ribalt\u00f2 questa politica nel 1970, chiedendo a Israele di ritirarsi ai suoi confini prima del 1967. Domanda: Il Regno Unito e la Francia non hanno avuto interruzioni dell' approvvigionamento petrolifero in quanto non hanno consentito a quale paese di utilizzare il loro aeroporto?"}, {"text": "Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma pi\u00f9 conosciuta (e attuale) con le lettere minuscole \"abc\" racchiuse in un unico cerchio nero. Il nuovo logo esordisce in onda per le promozioni di ABC all' inizio della stagione 1963-64. Le lettere ricordano fortemente il carattere tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti, ma condividono anche similitudini con diversi altri caratteri, come ITC Avant Garde e Horatio, e lo Chalet pi\u00f9 simile. La semplicit\u00e0 del logo ha reso pi\u00f9 facile la riprogettazione e la duplicazione, il che ha conferito un beneficio per ABC (soprattutto prima dell' avvento della computer grafica). Domanda: Di quale carattere tipografico ricordano le lettere dell' iconico logo ABC?"}, {"text": "La fotorespirazione pu\u00f2 verificarsi quando la concentrazione di ossigeno \u00e8 troppo elevata. Rubisco non \u00e8 in grado di distinguere molto bene tra ossigeno e anidride carbonica, quindi pu\u00f2 accidentalmente aggiungere O2 invece di CO2 a RuBP. Questo processo riduce l' efficienza della fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero. Pu\u00f2 sprecare fino alla met\u00e0 del carbonio fissato dal ciclo di Calvin. Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la concentrazione di anidride carbonica rispetto all' ossigeno all' interno del cloroplasto, aumentando l' efficienza della fotosintesi. Questi meccanismi sono chiamati meccanismi di concentrazione dell' anidride carbonica, o CCM. Tra questi figurano il metabolismo degli acidi crassulaceanici, la fissazione del carbonio C4 e i pirenoidi. I cloroplasti negli impianti C4 sono notevoli in quanto presentano un chiaro dimorfismo cloroplastico. Domanda: Che cosa pu\u00f2 fare rubisco per errore?"}], "co2_eq_emissions": {"emissions": "17g\"", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-question-answering", "results": [{"task": {"type": "question-answering", "name": "Question Answering"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "f1", "value": 0.66, "name": "Test F1"}, {"type": "exact-match", "value": 0.56, "name": "Test Exact Match"}]}]}]}
|
it5/mt5-small-question-answering
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"squad_it",
"text2text-question-answering",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for Question Answering ⁉️ 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #squad_it #text2text-question-answering #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for Question Answering ⁉️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for Question Generation 💭 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on question generation on the [SQuAD-IT corpus](https://huggingface.co/datasets/squad_it) as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
qg = pipeline("text2text-generation", model='it5/mt5-small-question-generation')
qg("Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto più autorevole di allora è venuto dalla facoltà di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che causò una "grande pestilenza nell\' aria". Questa relazione è diventata la prima e più diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria più accettata. Oggi, questo è conosciuto come la teoria di Miasma. La parola "peste" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che è diventato il termine medico. Risposta: re di Francia")
>>> [{"generated_text": "Per chi è stato redatto il referto medico?"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-question-generation")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-question-generation")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "question-generation", "squad_it", "text2text-generation"], "datasets": ["squad_it"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "Le conoscenze mediche erano stagnanti durante il Medioevo. Il resoconto pi\u00f9 autorevole di allora \u00e8 venuto dalla facolt\u00e0 di medicina di Parigi in un rapporto al re di Francia che ha incolpato i cieli, sotto forma di una congiunzione di tre pianeti nel 1345 che caus\u00f2 una \"grande pestilenza nell' aria\". Questa relazione \u00e8 diventata la prima e pi\u00f9 diffusa di una serie di casi di peste che cercava di dare consigli ai malati. Che la peste fosse causata dalla cattiva aria divenne la teoria pi\u00f9 accettata. Oggi, questo \u00e8 conosciuto come la teoria di Miasma. La parola \"peste\" non aveva un significato particolare in questo momento, e solo la ricorrenza dei focolai durante il Medioevo gli diede il nome che \u00e8 diventato il termine medico. Risposta: re di Francia"}, {"text": "Il 14 aprile 2011, ABC ha annullato le lunghe opere di sapone All My Children e One Life to Live dopo 41 e 43 anni in onda, rispettivamente (in seguito al contraccolpo dei tifosi, ABC ha venduto i diritti ad entrambi gli spettacoli a Prospect Park, che alla fine ha rilanciato i saponi su Hulu per un' ulteriore stagione nel 2013 e con entrambe le societ\u00e0 che si citano in giudizio per accuse di interferenza con il processo di rilancio degli spettacoli, mancato pagamento delle tasse di licenza. Il talk/lifestyle show che ha sostituito One Life to Live, The Revolution, non \u00e8 riuscito a generare giudizi soddisfacenti ed \u00e8 stato a sua volta annullato dopo soli sette mesi. La stagione 2011-12 ha visto l' ABC cadere al quarto posto nel 18-49 demografico nonostante rinnovando una manciata di nuovi spettacoli (compresi i drammi matricole Scandal, Revenge e Once Upon a Time) per la seconda stagione. Risposta: Hulu"}, {"text": "L' American Broadcasting Company (ABC) (stlized nel suo logo come abc dal 1957) \u00e8 una rete televisiva commerciale americana trasmissione televisiva che \u00e8 di propriet\u00e0 del Disney-ABC Television Group, una controllata della divisione Disney Media Networks di The Walt Disney Company. La rete fa parte delle grandi reti televisive Big Three. La rete ha sede a Columbus Avenue e West 66th Street a Manhattan, con ulteriori uffici e stabilimenti di produzione a New York City, Los Angeles e Burbank, California. Risposta: Manhattan"}, {"text": "La disobbedienza civile non rivoluzionaria \u00e8 una semplice disobbedienza delle leggi sulla base del fatto che sono giudicate \"sbagliate\" da una coscienza individuale, o come parte di uno sforzo per rendere alcune leggi inefficaci, per causarne l' abrogazione, o per esercitare pressioni per ottenere i propri desideri politici su qualche altra questione. La disobbedienza civile rivoluzionaria \u00e8 pi\u00f9 che altro un tentativo attivo di rovesciare un governo (o di cambiare le tradizioni culturali, i costumi sociali, le credenze religiose, ecc. La rivoluzione non deve necessariamente essere politica, cio\u00e8 \"rivoluzione culturale\", implica semplicemente un cambiamento radicale e diffuso in una sezione del tessuto sociale). Gli atti di Gandhi sono stati descritti come disobbedienza civile rivoluzionaria. \u00c8 stato affermato che gli ungheresi sotto Ferenc De\u00e1k hanno diretto una disobbedienza civile rivoluzionaria contro il governo austriaco. Thoreau ha anche scritto di disobbedienza civile realizzando \"rivoluzione pacifica\". Howard Zinn, Harvey Wheeler e altri hanno identificato il diritto sposato nella Dichiarazione d' Indipendenza di \"alterare o abolire\" un governo ingiusto come principio di disobbedienza civile. Risposta: Ferenc De\u00e1k"}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-question-generation", "results": [{"task": {"type": "question-generation", "name": "Question generation"}, "dataset": {"name": "SQuAD-IT", "type": "squad_it"}, "metrics": [{"type": "rouge1", "value": 0.306, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.143, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.286, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.463, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-small-question-generation
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"question-generation",
"squad_it",
"it",
"dataset:squad_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for Question Generation 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #question-generation #squad_it #it #dataset-squad_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for Question Generation 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on question generation on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
text2text-generation
|
transformers
|
# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) 🗞️➡️🗞️ 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
r2g = pipeline("text2text-generation", model='it5/mt5-small-repubblica-to-ilgiornale')
r2g("Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverrà nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si è trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perché dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi è stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perché rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , María Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\".")
>>> [{"generated_text": "il nazionalista rajoy: 'voteremo la sfiducia'"}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-repubblica-to-ilgiornale")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-repubblica-to-ilgiornale")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "newspaper", "ilgiornale", "repubblica", "style-transfer"], "datasets": ["gsarti/change_it"], "metrics": ["rouge", "bertscore", "headline-headline-consistency-classifier", "headline-article-consistency-classifier"], "widget": [{"text": "WASHINGTON - La Corea del Nord torna dopo nove anni nella blacklist Usa degli Stati considerati sponsor del terrorismo. Come Iran, Siria e Sudan. Lo ha deciso Donald Trump , che ha preferito dare l'annuncio non durante il suo recente viaggio in Asia ma ieri, in una riunione del governo alla Casa Bianca. 'Oggi gli Stati Uniti designeranno la Corea del nord come uno stato sponsor del terrorismo', ha tuonato il tycoon, anticipando che sar\u00e0 formalizzata oggi dal dipartimento di stato e sar\u00e0 accompagnata da nuove e pi\u00f9 severe sanzioni. 'Il livello pi\u00f9 alto' mai imposto a Pyongyang, ha promesso. 'Avrebbe dovuto succedere molto tempo fa', ha aggiunto, scaricando per l'ennesima volta la responsabilit\u00e0 dell'attuale crisi sull'amministrazione Obama. Poi si \u00e8 scagliato contro un 'regime assassino' che 'deve mettere fine allo sviluppo del suo programma illegale nucleare e balistico'. Per giustificare la svolta, Trump ha accusato Pyongyang non solo di 'minacciare il mondo con una devastazione nucleare' ma anche di aver 'ripetutamente sostenuto atti di terrorismo internazionale', compreso omicidi in suolo straniero. Il riferimento \u00e8 all' uccisione all'aeroporto della capitale malese di Kim Jong Nam , il fratellastro del leader nordcoreano Kim Jong Un , ma non ci sono altri episodi noti. Tanto che alcuni esperti, come pure dirigenti Usa coperti dall'anonimato, dubitano che Pyongyang risponda ai criteri per una tale designazione. La mossa appare altamente simbolica, dato che la Corea del Nord \u00e8 gi\u00e0 pesantemente sanzionata a livello internazionale. Per il segretario di stato Rex Tillerson \u00e8 solo l'ultima di una serie di passi per rafforzare la pressione su Pyongyang e costringerla a sedersi ad un tavolo perch\u00e9 gli Usa hanno sempre 'speranza nella diplomazia'. Ma nello stesso tempo \u00e8 un monito per 'fermare e dissuadere' altri Paesi dal sostenere la Corea del Nord, finita nella blacklist 'anche per l'uso di armi chimiche'. Ma la mossa potrebbe anche essere controproducente, provocando una risposta di Kim o minando gli sforzi per sollecitare Pechino ad una maggiore pressione su Pyongyang. In ogni caso non aiuta il dialogo diretto tra Usa e Corea del Nord, che sembrava essere stato avviato in modo riservato. Come non aiutano gli scambi di insulti fra Trump e Kim. Nord Corea, Trump: 'Cerco di essere amico di Kim, sarebbe una bella cosa per il mondo'. Pyongyang era stata messa nella lista Usa degli Stati sponsor del terrorismo per aver fatto esplodere nel 1987 un volo della Korean Air uccidendo tutti i 115 passeggeri a bordo. Ma l'amministrazione di George W. Bush l'aveva rimossa sperando di far avanzare i negoziati sulla denuclearizzazione della penisola coreana. Il governo giapponese sostiene la decisione degli Stati Uniti di inserire la Corea del Nord nella lista degli stati che sponsorizzano il terrorismo, pur riconoscendo che l'annuncio potrebbe provocare una reazione immediata del regime di Pyongyang. Il premier Shinzo Abe ha accolto con consenso il comunicato Usa e ha detto alla stampa che servir\u00e0 a incrementare la pressione sulla Corea del Nord. Il ministro della Difesa Itsunori Onodera , pur valutando positivamente la notifica, ha spiegato che si attendono azioni provocatorie dallo stato eremita, ribadendo che \u00e8 vitale rimanere vigili. Secondo la stampa nipponica Abe aveva richiesto al dipartimento di Stato Usa di mettere la Corea del Nord sulla lista durante l'incontro col presidente Usa Donald Trump a Tokyo a inizio mese. L'ultimo lancio di missile balistico condotto da Pyongyang nell'oceano Pacifico, sorvolando il mare del Giappone, risale allo scorso settembre."}, {"text": "ROMA - Una nuova droga killer \u00e8 stata sequestrata per la prima volta in Europa dagli investigatori del Nas. Si tratta di una nuova \"miscela psicoattiva altamente tossica\" per la prima volta individuata da forze di polizia, simile all'eroina sintetica, ma molto pi\u00f9 economica e letale. Tanto che i 20 grammi scoperti sarebbero stati sufficienti per fabbricare ben 20.000 dosi e lo stesso contatto attraverso la pelle pu\u00f2 provocare intossicazione. Individuata per la prima volta, la nuova droga presenta una struttura simile al farmaco sedativo Fentanyl ma con effetti molto pi\u00f9 devastanti per l'organismo. Proveniva dell'estero ed era contenuta in un plico postale indirizzato in una citt\u00e0 del centro Italia: \u00e8 stata intercettata tramite accertamenti sul web grazie a un'operazione di intelligence che ha visto come protagonisti i militari della Sezione operativa centrale del Comando carabinieri per la Tutela della salute (Nas). Economica e letale, secondo gli investigatori \"in confronto l'eroina \u00e8 quasi 'acqua fresca', anzi, proprio per la sua economicit\u00e0, in alcuni casi viene venduta dai pusher a giovani conviti di comprare eroina\". La diffusione di nuove droghe sintetiche che continuamente appaiono sui mercati necessita di un'attivit\u00e0 investigativa costante e complessa. Si tratta infatti di sostanze dalla struttura molecolare molto simile a quella del Fentanyl ma ogni volta leggermente diversa. Di qui la difficolt\u00e0 di individuarle e l'importanza del nuovo sequestro. \"La chiamano impropriamente 'eroina sintetica' - spiega il comandante dei Nas, generale Adelmo Lusi - per il tipo di effetto psicotropo simile, ma dal punto di vista della tossicit\u00e0 \u00e8 molto peggio: con 25 milligrammi di eroina ci si sballa, con 25mg di simil-fentanyl, come quello appena sequestrato, si muore\". Le indagini sono partite da ricoveri per overdose in ospedale, in cui arrivavano ragazzi che non rispondevano al trattamento disintossicante per l'eroina. La nuova sostanza verr\u00e0 ora segnalata per l'inserimento tra le tabelle ministeriali degli stupefacenti prevista dal Dpr 309/1990."}, {"text": "Fragile come il burro. Il nostro territorio \u00e8 precario. Ne sanno qualcosa i comuni che sono stati investititi dal maltempo . Il dissesto idrogeologico imperversa su tutto il territorio. Infatti, oltre 6.600 comuni , pari all\u201982% del totale, sono in aree ad elevato rischio idrogeologico, pari al 10% della sua superficie. La popolazione potenzialmente esposta \u00e8 stimata in 5,8 milioni di persone. I dati emergono dalle recenti analisi fatte da Legambiente e Protezione civile, che mettono in evidenza come in 10 anni in Italia sia raddoppiata l\u2019area dei territori colpiti da alluvioni e frane , passando da una media di quattro regioni all\u2019anno a otto regioni. Nella classifica delle regioni a maggior rischio idrogeologico prima \u00e8 la Calabria con il 100% dei comuni esposti; al 100% ci sono anche la provincia di Trento, il Molise, la Basilicata, l\u2019Umbria, la Valle d\u2019Aosta. Poi Marche, Liguria al 99%; Lazio, Toscana al 98%; Abruzzo (96%), Emilia-Romagna (95%), Campania e Friuli Venezia Giulia al 92%, Piemonte (87%), Sardegna (81%), Puglia (78%), Sicilia (71%), Lombardia (60%), provincia di Bolzano (59%), Veneto (56%). Tra le cause che condizionano ed amplificano il rischio idrogeologico c\u2019\u00e8 l\u2019azione dell\u2019uomo (abbandono e degrado, cementificazione, consumo di suolo, abusivismo, disboscamento e incendi). Ma anche e soprattutto la mancanza di una seria manutenzione ordinaria e non ad una organica politica di prevenzione."}, {"text": "Arriva dal Partito nazionalista basco (Pnv) la conferma che i cinque deputati che siedono in parlamento voteranno la sfiducia al governo guidato da Mariano Rajoy. Pochi voti, ma significativi quelli della formazione politica di Aitor Esteban, che interverr\u00e0 nel pomeriggio. Pur con dimensioni molto ridotte, il partito basco si \u00e8 trovato a fare da ago della bilancia in aula. E il sostegno alla mozione presentata dai Socialisti potrebbe significare per il primo ministro non trovare quei 176 voti che gli servono per continuare a governare. \" Perch\u00e9 dovrei dimettermi io che per il momento ho la fiducia della Camera e quella che mi \u00e8 stato data alle urne \", ha detto oggi Rajoy nel suo intervento in aula, mentre procedeva la discussione sulla mozione di sfiducia. Il voto dei baschi ora cambia le carte in tavola e fa crescere ulteriormente la pressione sul premier perch\u00e9 rassegni le sue dimissioni. La sfiducia al premier, o un'eventuale scelta di dimettersi, porterebbe alle estreme conseguenze lo scandalo per corruzione che ha investito il Partito popolare. Ma per ora sembra pensare a tutt'altro. \"Non ha intenzione di dimettersi - ha detto il segretario generale del Partito popolare , Mar\u00eda Dolores de Cospedal - Non gioverebbe all'interesse generale o agli interessi del Pp\"."}], "co2_eq_emissions": {"emissions": "17g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-repubblica-to-ilgiornale", "results": [{"task": {"type": "headline-style-transfer-repubblica-to-ilgiornale", "name": "Headline style transfer (Repubblica to Il Giornale)"}, "dataset": {"name": "CHANGE-IT", "type": "gsarti/change_it"}, "metrics": [{"type": "rouge1", "value": 0.231, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.069, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.204, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.363, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}, {"type": "headline-headline-consistency-classifier", "value": 0.769, "name": "Test Headline-Headline Consistency Accuracy"}, {"type": "headline-article-consistency-classifier", "value": 0.842, "name": "Test Headline-Article Consistency Accuracy"}]}]}]}
|
it5/mt5-small-repubblica-to-ilgiornale
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"newspaper",
"ilgiornale",
"repubblica",
"style-transfer",
"it",
"dataset:gsarti/change_it",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
The model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #newspaper #ilgiornale #repubblica #style-transfer #it #dataset-gsarti/change_it #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for News Headline Style Transfer (Repubblica to Il Giornale) ️️️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on news headline style transfer in the Repubblica to Il Giornale direction on the Italian CHANGE-IT dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nThe model is trained to generate an headline in the style of Il Giornale from the full body of an article written in the style of Repubblica. Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
summarization
|
transformers
|
# mT5 Small for Wikipedia Summarization ✂️📑 🇮🇹
This repository contains the checkpoint for the [mT5 Small](https://huggingface.co/google/mt5-small) model fine-tuned on Wikipedia summarization on the [WITS](https://www.semanticscholar.org/paper/WITS%3A-Wikipedia-for-Italian-Text-Summarization-Casola-Lavelli/ad6c83122e721c7c0db4a40727dac3b4762cd2b1) dataset as part of the experiments of the paper [IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation](https://arxiv.org/abs/2203.03759) by [Gabriele Sarti](https://gsarti.com) and [Malvina Nissim](https://malvinanissim.github.io).
A comprehensive overview of other released materials is provided in the [gsarti/it5](https://github.com/gsarti/it5) repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
```python
from transformers import pipelines
wikisum = pipeline("summarization", model='it5/mt5-small-wiki-summarization')
wikisum("Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale è separata dal passaggio Rodman. La sua altezza è di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola è presente il rifugio Guillochon, sito storico antartico. ")
>>> [{"generated_text": "L' '''isola di Rabot''' si trova in prossimità dell'isola di Renaud, a sud dell'Argentina."}]
```
or loaded using autoclasses:
```python
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/mt5-small-wiki-summarization")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/mt5-small-wiki-summarization")
```
If you use this model in your research, please cite our work as:
```bibtex
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
```
|
{"language": ["it"], "license": "apache-2.0", "tags": ["italian", "sequence-to-sequence", "wikipedia", "summarization", "wits"], "datasets": ["wits"], "metrics": ["rouge", "bertscore"], "widget": [{"text": "La 5\u00aa Commissione ha competenza per i disegni di legge riguardanti le specifiche materie del bilancio, del personale e dei servizi del Ministero dell'economia, nonch\u00e9 per i disegni di legge riguardanti la materia finanziaria. La Commissione \u00e8 composta da 26 senatori (di cui 2 segretari, 2 vicepresidenti di cui 1 componente esterno, e un presidente) scelti in modo omogeneo tra i componenti di quel ramo del Parlamento, in modo da rispecchiarne le forze politiche presenti. Essi sono scelti dai gruppi parlamentari (e non dal Presidente, come invece accade per l'organismo della Giunta parlamentare): per la nomina dei membri ciascun Gruppo, entro cinque giorni dalla propria costituzione, procede, dandone comunicazione alla Presidenza del Senato, alla designazione dei propri rappresentanti nelle singole Commissioni permanenti. Ogni senatore chiamato a far parte del governo o eletto presidente della Commissione \u00e8, per la durata della carica, sostituito dal suo gruppo nella Commissione con un altro senatore, che continuer\u00e0 ad appartenere anche alla Commissione di provenienza. Tranne in rari casi nessun Senatore pu\u00f2 essere assegnato a pi\u00f9 di una Commissione permanente. Le Commissioni permanenti sono rinnovate dopo il primo biennio della legislatura ed i loro componenti possono essere confermati."}, {"text": "Interni della chiesa Si pensa che gi\u00e0 ai tempi di Gediminas vi fosse una piccola chiesa, probabilmente in legno. Nel 1408 circa Vitoldo costru\u00ec la chiesa dello Spirito Santo che and\u00f2 in seguito ampliata. Nel 1501 Alessandro Jagellone lo don\u00f2 al monastero domenicano, il pi\u00f9 antico della Lituania, che nel 1679-88 fu ampliato e ricostruito. Di quel periodo sopravvivono le mura della chiesa, mentre l'arredamento interno fu realizzato nel 1749-1770 e la cupola affront\u00f2 dei lavori di restauro nel 1752-1760. Nel 1844 le autorit\u00e0 zariste chiusero il monastero e la chiesa divenne parrocchiale. Oggi serve la comunit\u00e0 polacca di Vilnius. Su via \u0160v. Ignoto fu fondato un monastero domenicano nel 1501. Come molti altri edifici, questo monastero fu convertito in una prigione dalle autorit\u00e0 zariste nel 1807. Costitu\u00ec un luogo di prigionia per molti patrioti lituani, nello specifico i Filareti, i quali parteciparono alle rivolte del 1831 e del 1863. Organo La chiesa si trova lateralmente rispetto alla strada e non ha una facciata principale ben disegnata. L'altezza, inclusa la cupola, \u00e8 di 51 m. La parte inferiore della facciata (con piccole torri gemelle) \u00e8 ricoperta da edifici conventuali e l'esterno presenta caratteristiche architettoniche tipiche del tardo barocco. Celebre per i fantasiosi ornamenti rococ\u00f2, l'interno della chiesa \u00e8 tra i pi\u00f9 celebri della Lituania per via dei cartigli con vari stemmi e affreschi lungo la navata: vi sono 16 altari nella chiesa. Gli altari e il pulpito sono assai decorati con sculture e ornamenti rotondi e in rilievo. Tra gli affreschi barocchi, si pensi alla composizione multi-figurale intitolata ''Apoteosi dello Spirito Santo'' (neobarocco, XIX secolo) nella cupola, 45 dipinti nella chiesa (tra cui un'immagine di Santa Barbara con un'ambientazione del XVII o XVIII secolo, una di Santa Caterina da Siena in stile rococ\u00f2 di Szymon Czechowicz, un ritratto di Alessandro Jagellone di un artista sconosciuto della seconda met\u00e0 del XVIII secolo). Un ingresso sotto l'altare conduce alle grandi volte, labirintiche, con molte stanze e cripte: i sotterranei ospitano i resti di centinaia di residenti di Vilnius, alcuni dei quali mummificatisi naturalmente, e sono circondati da leggende metropolitane. Sebbene l'esistenza dei sotterranei fosse nota, i primi sforzi per esplorare e mappare le cripte furono abbandonate nonostante lo sforzo degli studenti dell'Universit\u00e0 di Vilnius negli anni '30. Tuttavia, questi ultimi non avevano osservato le corrette procedure archeologiche e causarono infatti molti danni: il modus operandi prevedeva lo smistamento delle ossa ponendo tutti i teschi sugli scaffali e rimuovendoli le tombe. Da allora, i resti sono stati spostati molte volte lasciandoli in uno stato casuale e disorganizzato. Stando alle leggende che aleggiano sul luogo, i resti sarebbero di soldati francesi recatisi in citt\u00e0 nel corso della campagna di Russia del 1812 avviata da Napoleone Bonaparte, di vittime dell'Inquisizione o della peste nera. Pi\u00f9 romantiche risultano le affermazioni di chi sostiene che i corridoi sotterranei facevano parte di una rete di passaggi pi\u00f9 ampia che consentiva agli amanti leggendari Barbara Radziwi\u0142\u0142 e Sigismondo II Augusto di incontrarsi in segreto. Nel 2011, gli antropologi dell'Universit\u00e0 di Vilnius, guidati da Rimantas Jankauskas, avviarono uno studio sui corpi mummificati, stimando settimane dopo che le volte conservassero i resti di circa 600 persone, tra cui molte donne e bambini dalla met\u00e0 del XVIII secolo all'inizio del XIX secolo. Il team ha selezionato i cadaveri meglio conservati e ha eseguito la loro tomografia. I risultati mostrano che molte persone erano in sovrappeso e avevano l'alluce valgo, il che ha portato alla conclusione che si trattava di alti borghesi o comunque di cittadini abbienti. "}, {"text": "Le dimensioni dell'isola sono di 8 km di lunghezza e di 3,2 km di larghezza. Si trova a 1,6 km a sud-est dell'isola di Renaud, dalla quale \u00e8 separata dal passaggio Rodman. La sua altezza \u00e8 di 100 m. Fu scoperta dall'esploratore e baleniere britannico John Biscoe nel 1832 e venne mappata durante una spedizione antartica francese realizzata nel primo decennio del XX secolo. Al comando della spedizione era Jean-Baptiste Charcot e il nome fu scelto per onorare l'esploratore e geografo francese Charles Rabot. === Rivendicazioni territoriali === * Secondo l'Argentina appartiene al dipartimento dell'Antartide Argentina nella provincia della Terra del Fuoco. * Secondo il Cile appartiene al comune antartico della provincia cilena antartica nella regione di Magallanes e dell'Antartico cileno. * Secondo il Regno Unito fa parte del territorio antartico britannico. Per il Trattato Antartico tali rivendicazioni sono sospese. Sull'isola \u00e8 presente il rifugio Guillochon, sito storico antartico. "}, {"text": "Vanni ha la sua prima mostra personale nel 1948, alla Galleria Margherita di Roma. Nel 1949 vince una borsa di studio che lo porter\u00e0 a studiare ad Amsterdam sotto la guida del pittore neoplastico Friedrich Vordemberge-Gildewart. Nel 1952 vince una Fulbright Scholarship che lo porter\u00e0 a studiare in America, alla Yale University, sotto la guida di Josef Albers. Dal 1953 al 1960 si stabilisce a Parigi, dove illustra alcuni libri per bambini che in seguito vinceranno il premio del Club des Editeurs. Nel 1954 lavora come consulente del colore per il documentario su Picasso di Luciano Emmer, e nel 1955 comincia la sua lunga collaborazione con la Galleria Schneider, affiancando artisti come Corrado Cagli. Dal 1969 al 1974 lavora su dei bassorilievi in vetro resina sui quali vengono proiettati dei film astratti da lui creati, per creare dei quadri che si trasformino continuamente nel tempo. Nel 1979 lascia Roma per stabilirsi a New York, dove alla carriera di pittore affiancher\u00e0 quella di professore per la prestigiosa Cooper Union School of Art, dove insegner\u00e0 ininterrottamente dal 1984 al 2014. L'opera pittorica di Vanni \u00e8 segnata da una visione estremamente personale, lontana dalle correnti e dai movimenti che hanno caratterizzato la seconda met\u00e0 del XX secolo. Memore delle lunghe conversazioni avute da Vanni nella sua primissima giovent\u00f9, con il filosofo e pittore futurista Alberto Bragaglia, le sue opere sono contrassegnate da un \u201ceclettismo\u201d formale programmatico, alla base del quale resta costante una conoscenza profonda delle molteplici tecniche artistiche utilizzate (tra cui il mosaico, l\u2019affresco e la tempera ad uovo). Pur esprimendosi per lo pi\u00f9 in cicli di opere dove l\u2019astrazione formale \u00e8 la principale componente figurativa, sono da sottolineare alcune opere dove Vanni ha dato prova di una importante padronanza dell\u2019arte figurativa. Importanti e numerose sono le sue realizzazioni anche nel campo dell\u2019illustrazione. Sue sono le illustrazioni per la novella ''Agostino'' di Alberto Moravia, per il libro ''Love'' di Lowell A. Siff e delle ''Contes de Cristal'' di Alice Col\u00e9no. Ha tenuto mostre personali in Italia e all\u2019estero ed esposto in mostre collettive di rappresentanza italiana nei musei e nelle gallerie di ogni parte del mondo. "}], "co2_eq_emissions": {"emissions": "14g", "source": "Google Cloud Platform Carbon Footprint", "training_type": "fine-tuning", "geographical_location": "Eemshaven, Netherlands, Europe", "hardware_used": "1 TPU v3-8 VM"}, "thumbnail": "https://gsarti.com/publication/it5/featured.png", "model-index": [{"name": "mt5-small-wiki-summarization", "results": [{"task": {"type": "wiki-summarization", "name": "Wikipedia Summarization"}, "dataset": {"name": "WITS", "type": "wits"}, "metrics": [{"type": "rouge1", "value": 0.347, "name": "Test Rouge1"}, {"type": "rouge2", "value": 0.2, "name": "Test Rouge2"}, {"type": "rougeL", "value": 0.316, "name": "Test RougeL"}, {"type": "bertscore", "value": 0.517, "name": "Test BERTScore", "args": [{"model_type": "dbmdz/bert-base-italian-xxl-uncased"}, {"lang": "it"}, {"num_layers": 10}, {"rescale_with_baseline": true}, {"baseline_path": "bertscore_baseline_ita.tsv"}]}]}]}]}
|
it5/mt5-small-wiki-summarization
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"tensorboard",
"mt5",
"text2text-generation",
"italian",
"sequence-to-sequence",
"wikipedia",
"summarization",
"wits",
"it",
"dataset:wits",
"arxiv:2203.03759",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2203.03759"
] |
[
"it"
] |
TAGS
#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# mT5 Small for Wikipedia Summarization ️ 🇮🇹
This repository contains the checkpoint for the mT5 Small model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
## Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
or loaded using autoclasses:
If you use this model in your research, please cite our work as:
|
[
"# mT5 Small for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #tensorboard #mt5 #text2text-generation #italian #sequence-to-sequence #wikipedia #summarization #wits #it #dataset-wits #arxiv-2203.03759 #license-apache-2.0 #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# mT5 Small for Wikipedia Summarization ️ 🇮🇹\n\nThis repository contains the checkpoint for the mT5 Small model fine-tuned on Wikipedia summarization on the WITS dataset as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim. \n\nA comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.",
"## Using the model\n\nModel checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:\n\n\n\nor loaded using autoclasses:\n\n\n\nIf you use this model in your research, please cite our work as:"
] |
fill-mask
|
transformers
|
Note that model type is Camembert.
|
{}
|
itsunoda/wolfbbsRoBERTa-small
| null |
[
"transformers",
"pytorch",
"tf",
"camembert",
"fill-mask",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #tf #camembert #fill-mask #autotrain_compatible #endpoints_compatible #region-us
|
Note that model type is Camembert.
|
[] |
[
"TAGS\n#transformers #pytorch #tf #camembert #fill-mask #autotrain_compatible #endpoints_compatible #region-us \n"
] |
null |
transformers
|
BERT Miniatures
===
This is the set of 24 BERT models referenced in [Well-Read Students Learn Better: On the Importance of Pre-training Compact Models](https://arxiv.org/abs/1908.08962) (English only, uncased, trained with WordPiece masking).
We have shown that the standard BERT recipe (including model architecture and training objective) is effective on a wide range of model sizes, beyond BERT-Base and BERT-Large. The smaller BERT models are intended for environments with restricted computational resources. They can be fine-tuned in the same manner as the original BERT models. However, they are most effective in the context of knowledge distillation, where the fine-tuning labels are produced by a larger and more accurate teacher.
Our goal is to enable research in institutions with fewer computational resources and encourage the community to seek directions of innovation alternative to increasing model capacity.
You can download the 24 BERT miniatures either from the [official BERT Github page](https://github.com/google-research/bert/), or via HuggingFace from the links below:
| |H=128|H=256|H=512|H=768|
|---|:---:|:---:|:---:|:---:|
| **L=2** |[**2/128 (BERT-Tiny)**][2_128]|[2/256][2_256]|[2/512][2_512]|[2/768][2_768]|
| **L=4** |[4/128][4_128]|[**4/256 (BERT-Mini)**][4_256]|[**4/512 (BERT-Small)**][4_512]|[4/768][4_768]|
| **L=6** |[6/128][6_128]|[6/256][6_256]|[6/512][6_512]|[6/768][6_768]|
| **L=8** |[8/128][8_128]|[8/256][8_256]|[**8/512 (BERT-Medium)**][8_512]|[8/768][8_768]|
| **L=10** |[10/128][10_128]|[10/256][10_256]|[10/512][10_512]|[10/768][10_768]|
| **L=12** |[12/128][12_128]|[12/256][12_256]|[12/512][12_512]|[**12/768 (BERT-Base)**][12_768]|
Note that the BERT-Base model in this release is included for completeness only; it was re-trained under the same regime as the original model.
Here are the corresponding GLUE scores on the test set:
|Model|Score|CoLA|SST-2|MRPC|STS-B|QQP|MNLI-m|MNLI-mm|QNLI(v2)|RTE|WNLI|AX|
|---|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|:---:|
|BERT-Tiny|64.2|0.0|83.2|81.1/71.1|74.3/73.6|62.2/83.4|70.2|70.3|81.5|57.2|62.3|21.0|
|BERT-Mini|65.8|0.0|85.9|81.1/71.8|75.4/73.3|66.4/86.2|74.8|74.3|84.1|57.9|62.3|26.1|
|BERT-Small|71.2|27.8|89.7|83.4/76.2|78.8/77.0|68.1/87.0|77.6|77.0|86.4|61.8|62.3|28.6|
|BERT-Medium|73.5|38.0|89.6|86.6/81.6|80.4/78.4|69.6/87.9|80.0|79.1|87.7|62.2|62.3|30.5|
For each task, we selected the best fine-tuning hyperparameters from the lists below, and trained for 4 epochs:
- batch sizes: 8, 16, 32, 64, 128
- learning rates: 3e-4, 1e-4, 5e-5, 3e-5
If you use these models, please cite the following paper:
```
@article{turc2019,
title={Well-Read Students Learn Better: On the Importance of Pre-training Compact Models},
author={Turc, Iulia and Chang, Ming-Wei and Lee, Kenton and Toutanova, Kristina},
journal={arXiv preprint arXiv:1908.08962v2 },
year={2019}
}
```
[2_128]: https://huggingface.co/google/bert_uncased_L-2_H-128_A-2
[2_256]: https://huggingface.co/google/bert_uncased_L-2_H-256_A-4
[2_512]: https://huggingface.co/google/bert_uncased_L-2_H-512_A-8
[2_768]: https://huggingface.co/google/bert_uncased_L-2_H-768_A-12
[4_128]: https://huggingface.co/google/bert_uncased_L-4_H-128_A-2
[4_256]: https://huggingface.co/google/bert_uncased_L-4_H-256_A-4
[4_512]: https://huggingface.co/google/bert_uncased_L-4_H-512_A-8
[4_768]: https://huggingface.co/google/bert_uncased_L-4_H-768_A-12
[6_128]: https://huggingface.co/google/bert_uncased_L-6_H-128_A-2
[6_256]: https://huggingface.co/google/bert_uncased_L-6_H-256_A-4
[6_512]: https://huggingface.co/google/bert_uncased_L-6_H-512_A-8
[6_768]: https://huggingface.co/google/bert_uncased_L-6_H-768_A-12
[8_128]: https://huggingface.co/google/bert_uncased_L-8_H-128_A-2
[8_256]: https://huggingface.co/google/bert_uncased_L-8_H-256_A-4
[8_512]: https://huggingface.co/google/bert_uncased_L-8_H-512_A-8
[8_768]: https://huggingface.co/google/bert_uncased_L-8_H-768_A-12
[10_128]: https://huggingface.co/google/bert_uncased_L-10_H-128_A-2
[10_256]: https://huggingface.co/google/bert_uncased_L-10_H-256_A-4
[10_512]: https://huggingface.co/google/bert_uncased_L-10_H-512_A-8
[10_768]: https://huggingface.co/google/bert_uncased_L-10_H-768_A-12
[12_128]: https://huggingface.co/google/bert_uncased_L-12_H-128_A-2
[12_256]: https://huggingface.co/google/bert_uncased_L-12_H-256_A-4
[12_512]: https://huggingface.co/google/bert_uncased_L-12_H-512_A-8
[12_768]: https://huggingface.co/google/bert_uncased_L-12_H-768_A-12
|
{"license": "apache-2.0", "thumbnail": "https://huggingface.co/front/thumbnails/google.png"}
|
iuliaturc/bert_uncased_L-2_H-128_A-2
| null |
[
"transformers",
"pytorch",
"jax",
"bert",
"arxiv:1908.08962",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"1908.08962"
] |
[] |
TAGS
#transformers #pytorch #jax #bert #arxiv-1908.08962 #license-apache-2.0 #endpoints_compatible #region-us
|
BERT Miniatures
===============
This is the set of 24 BERT models referenced in Well-Read Students Learn Better: On the Importance of Pre-training Compact Models (English only, uncased, trained with WordPiece masking).
We have shown that the standard BERT recipe (including model architecture and training objective) is effective on a wide range of model sizes, beyond BERT-Base and BERT-Large. The smaller BERT models are intended for environments with restricted computational resources. They can be fine-tuned in the same manner as the original BERT models. However, they are most effective in the context of knowledge distillation, where the fine-tuning labels are produced by a larger and more accurate teacher.
Our goal is to enable research in institutions with fewer computational resources and encourage the community to seek directions of innovation alternative to increasing model capacity.
You can download the 24 BERT miniatures either from the official BERT Github page, or via HuggingFace from the links below:
Note that the BERT-Base model in this release is included for completeness only; it was re-trained under the same regime as the original model.
Here are the corresponding GLUE scores on the test set:
For each task, we selected the best fine-tuning hyperparameters from the lists below, and trained for 4 epochs:
* batch sizes: 8, 16, 32, 64, 128
* learning rates: 3e-4, 1e-4, 5e-5, 3e-5
If you use these models, please cite the following paper:
|
[] |
[
"TAGS\n#transformers #pytorch #jax #bert #arxiv-1908.08962 #license-apache-2.0 #endpoints_compatible #region-us \n"
] |
automatic-speech-recognition
|
transformers
|
# Wav2Vec2-Large-XLSR-53-euskera
Fine-tuned [facebook/wav2vec2-large-xlsr-53](https://huggingface.co/facebook/wav2vec2-large-xlsr-53) in Euskera using the [Common Voice](https://huggingface.co/datasets/common_voice).
When using this model, make sure that your speech input is sampled at 16kHz.
## Usage
The model can be used directly (without a language model) as follows:
```python
import torch
import torchaudio
from datasets import load_dataset
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
test_dataset = load_dataset("common_voice", "eu", split="test[:2%]").
processor = Wav2Vec2Processor.from_pretrained("ivangtorre/wav2vec2-large-xlsr-53-basque")
model = Wav2Vec2ForCTC.from_pretrained("ivangtorre/wav2vec2-large-xlsr-53-basque")
resampler = torchaudio.transforms.Resample(48_000, 16_000)
# Preprocessing the datasets.
# We need to read the aduio files as arrays
def speech_file_to_array_fn(batch):
speech_array, sampling_rate = torchaudio.load(batch["path"])
batch["speech"] = resampler(speech_array).squeeze().numpy()
return batch
test_dataset = test_dataset.map(speech_file_to_array_fn)
inputs = processor(test_dataset["speech"][:2], sampling_rate=16_000, return_tensors="pt", padding=True)
with torch.no_grad():
logits = model(inputs.input_values, attention_mask=inputs.attention_mask).logits
predicted_ids = torch.argmax(logits, dim=-1)
print("Prediction:", processor.batch_decode(predicted_ids))
print("Reference:", test_dataset["sentence"][:2])
```
## Evaluation
The model can be evaluated as follows on the Basque test data of Common Voice.
```python
import torch
import torchaudio
from datasets import load_dataset, load_metric
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
import re
test_dataset = load_dataset("common_voice", "eu", split="test")
wer = load_metric("wer")
processor = Wav2Vec2Processor.from_pretrained("ivangtorre/wav2vec2-large-xlsr-53-basque")
model = Wav2Vec2ForCTC.from_pretrained("ivangtorre/wav2vec2-large-xlsr-53-basque")
model.to("cuda")
chars_to_ignore_regex = '[",", "?", ".", "!", "-", ";", ":", '""', "%", "'", '"', "�"]'
resampler = torchaudio.transforms.Resample(48_000, 16_000)
# Preprocessing the datasets.
# We need to read the aduio files as arrays
def speech_file_to_array_fn(batch):
batch["sentence"] = re.sub(chars_to_ignore_regex, '', batch["sentence"]).lower()
speech_array, sampling_rate = torchaudio.load(batch["path"])
batch["speech"] = resampler(speech_array).squeeze().numpy()
return batch
test_dataset = test_dataset.map(speech_file_to_array_fn)
# Preprocessing the datasets.
# We need to read the aduio files as arrays
def evaluate(batch):
inputs = processor(batch["speech"], sampling_rate=16_000, return_tensors="pt", padding=True)
with torch.no_grad():
logits = model(inputs.input_values.to("cuda"), attention_mask=inputs.attention_mask.to("cuda")).logits
pred_ids = torch.argmax(logits, dim=-1)
batch["pred_strings"] = processor.batch_decode(pred_ids)
return batch
result = test_dataset.map(evaluate, batched=True, batch_size=8)
print("WER: {:2f}".format(100 * wer.compute(predictions=result["pred_strings"], references=result["sentence"])))
```
**Test Result**: 16.99 %
## Training
The Common Voice `train`, `validation` datasets were used for training.
The script used for training can be found in [Github](https://github.com/ivangtorre/wav2vec2-xlsr-fine-tuning-week-Basque)
|
{"language": "eu", "license": "apache-2.0", "tags": ["audio", "automatic-speech-recognition", "speech", "xlsr-fine-tuning-week"], "datasets": ["common_voice"], "model-index": [{"name": "XLSR Wav2Vec2 Basque Ivan G Torre", "results": [{"task": {"type": "automatic-speech-recognition", "name": "Speech Recognition"}, "dataset": {"name": "Common Voice eu", "type": "common_voice", "args": "eu"}, "metrics": [{"type": "wer", "value": 16.99, "name": "Test WER"}]}]}]}
|
ivangtorre/wav2vec2-large-xlsr-53-basque
| null |
[
"transformers",
"wav2vec2",
"automatic-speech-recognition",
"audio",
"speech",
"xlsr-fine-tuning-week",
"eu",
"dataset:common_voice",
"license:apache-2.0",
"model-index",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"eu"
] |
TAGS
#transformers #wav2vec2 #automatic-speech-recognition #audio #speech #xlsr-fine-tuning-week #eu #dataset-common_voice #license-apache-2.0 #model-index #endpoints_compatible #region-us
|
# Wav2Vec2-Large-XLSR-53-euskera
Fine-tuned facebook/wav2vec2-large-xlsr-53 in Euskera using the Common Voice.
When using this model, make sure that your speech input is sampled at 16kHz.
## Usage
The model can be used directly (without a language model) as follows:
## Evaluation
The model can be evaluated as follows on the Basque test data of Common Voice.
Test Result: 16.99 %
## Training
The Common Voice 'train', 'validation' datasets were used for training.
The script used for training can be found in Github
|
[
"# Wav2Vec2-Large-XLSR-53-euskera\nFine-tuned facebook/wav2vec2-large-xlsr-53 in Euskera using the Common Voice.\nWhen using this model, make sure that your speech input is sampled at 16kHz.",
"## Usage\n\nThe model can be used directly (without a language model) as follows:",
"## Evaluation\n\nThe model can be evaluated as follows on the Basque test data of Common Voice.\n\n\n\n\nTest Result: 16.99 %",
"## Training\n\nThe Common Voice 'train', 'validation' datasets were used for training.\n\nThe script used for training can be found in Github"
] |
[
"TAGS\n#transformers #wav2vec2 #automatic-speech-recognition #audio #speech #xlsr-fine-tuning-week #eu #dataset-common_voice #license-apache-2.0 #model-index #endpoints_compatible #region-us \n",
"# Wav2Vec2-Large-XLSR-53-euskera\nFine-tuned facebook/wav2vec2-large-xlsr-53 in Euskera using the Common Voice.\nWhen using this model, make sure that your speech input is sampled at 16kHz.",
"## Usage\n\nThe model can be used directly (without a language model) as follows:",
"## Evaluation\n\nThe model can be evaluated as follows on the Basque test data of Common Voice.\n\n\n\n\nTest Result: 16.99 %",
"## Training\n\nThe Common Voice 'train', 'validation' datasets were used for training.\n\nThe script used for training can be found in Github"
] |
text-classification
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# language-detection-fine-tuned-on-xlm-roberta-base
This model is a fine-tuned version of [xlm-roberta-base](https://huggingface.co/xlm-roberta-base) on the [common_language](https://huggingface.co/datasets/common_language) dataset.
It achieves the following results on the evaluation set:
- Loss: 0.1886
- Accuracy: 0.9738
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 3e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 1
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:-----:|:---------------:|:--------:|
| 0.1 | 1.0 | 22194 | 0.1886 | 0.9738 |
### Framework versions
- Transformers 4.12.5
- Pytorch 1.10.0+cu111
- Datasets 1.15.1
- Tokenizers 0.10.3
### Notebook
[notebook](https://github.com/IvanLauLinTiong/language-detector/blob/main/xlm_roberta_base_commonlanguage_language_detector.ipynb)
|
{"license": "mit", "tags": ["generated_from_trainer"], "datasets": ["common_language"], "metrics": ["accuracy"], "model-index": [{"name": "language-detection-fine-tuned-on-xlm-roberta-base", "results": [{"task": {"type": "text-classification", "name": "Text Classification"}, "dataset": {"name": "common_language", "type": "common_language", "args": "full"}, "metrics": [{"type": "accuracy", "value": 0.9738386718094919, "name": "Accuracy"}]}]}]}
|
ivanlau/language-detection-fine-tuned-on-xlm-roberta-base
| null |
[
"transformers",
"pytorch",
"tensorboard",
"xlm-roberta",
"text-classification",
"generated_from_trainer",
"dataset:common_language",
"license:mit",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #tensorboard #xlm-roberta #text-classification #generated_from_trainer #dataset-common_language #license-mit #model-index #autotrain_compatible #endpoints_compatible #has_space #region-us
|
language-detection-fine-tuned-on-xlm-roberta-base
=================================================
This model is a fine-tuned version of xlm-roberta-base on the common\_language dataset.
It achieves the following results on the evaluation set:
* Loss: 0.1886
* Accuracy: 0.9738
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 3e-05
* train\_batch\_size: 1
* eval\_batch\_size: 1
* seed: 42
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* lr\_scheduler\_warmup\_steps: 500
* num\_epochs: 1
* mixed\_precision\_training: Native AMP
### Training results
### Framework versions
* Transformers 4.12.5
* Pytorch 1.10.0+cu111
* Datasets 1.15.1
* Tokenizers 0.10.3
### Notebook
notebook
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 3e-05\n* train\\_batch\\_size: 1\n* eval\\_batch\\_size: 1\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 500\n* num\\_epochs: 1\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.12.5\n* Pytorch 1.10.0+cu111\n* Datasets 1.15.1\n* Tokenizers 0.10.3",
"### Notebook\n\n\nnotebook"
] |
[
"TAGS\n#transformers #pytorch #tensorboard #xlm-roberta #text-classification #generated_from_trainer #dataset-common_language #license-mit #model-index #autotrain_compatible #endpoints_compatible #has_space #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 3e-05\n* train\\_batch\\_size: 1\n* eval\\_batch\\_size: 1\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 500\n* num\\_epochs: 1\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.12.5\n* Pytorch 1.10.0+cu111\n* Datasets 1.15.1\n* Tokenizers 0.10.3",
"### Notebook\n\n\nnotebook"
] |
automatic-speech-recognition
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
#
This model is a fine-tuned version of [facebook/wav2vec2-xls-r-300m](https://huggingface.co/facebook/wav2vec2-xls-r-300m) on the MOZILLA-FOUNDATION/COMMON_VOICE_8_0 - ZH-HK dataset.
It achieves the following results on the evaluation set:
- Loss: 1.4848
- Wer: 0.8004
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0003
- train_batch_size: 32
- eval_batch_size: 16
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 64
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 100.0
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Wer |
|:-------------:|:-----:|:-----:|:---------------:|:------:|
| No log | 1.0 | 183 | 47.8442 | 1.0 |
| No log | 2.0 | 366 | 6.3109 | 1.0 |
| 41.8902 | 3.0 | 549 | 6.2392 | 1.0 |
| 41.8902 | 4.0 | 732 | 5.9739 | 1.1123 |
| 41.8902 | 5.0 | 915 | 4.9014 | 1.9474 |
| 5.5817 | 6.0 | 1098 | 3.9892 | 1.0188 |
| 5.5817 | 7.0 | 1281 | 3.5080 | 1.0104 |
| 5.5817 | 8.0 | 1464 | 3.0797 | 0.9905 |
| 3.5579 | 9.0 | 1647 | 2.8111 | 0.9836 |
| 3.5579 | 10.0 | 1830 | 2.6726 | 0.9815 |
| 2.7771 | 11.0 | 2013 | 2.7177 | 0.9809 |
| 2.7771 | 12.0 | 2196 | 2.3582 | 0.9692 |
| 2.7771 | 13.0 | 2379 | 2.1708 | 0.9757 |
| 2.3488 | 14.0 | 2562 | 2.0491 | 0.9526 |
| 2.3488 | 15.0 | 2745 | 1.8518 | 0.9378 |
| 2.3488 | 16.0 | 2928 | 1.6845 | 0.9286 |
| 1.7859 | 17.0 | 3111 | 1.6412 | 0.9280 |
| 1.7859 | 18.0 | 3294 | 1.5488 | 0.9035 |
| 1.7859 | 19.0 | 3477 | 1.4546 | 0.9010 |
| 1.3898 | 20.0 | 3660 | 1.5147 | 0.9201 |
| 1.3898 | 21.0 | 3843 | 1.4467 | 0.8959 |
| 1.1291 | 22.0 | 4026 | 1.4743 | 0.9035 |
| 1.1291 | 23.0 | 4209 | 1.3827 | 0.8762 |
| 1.1291 | 24.0 | 4392 | 1.3437 | 0.8792 |
| 0.8993 | 25.0 | 4575 | 1.2895 | 0.8577 |
| 0.8993 | 26.0 | 4758 | 1.2928 | 0.8558 |
| 0.8993 | 27.0 | 4941 | 1.2947 | 0.9163 |
| 0.6298 | 28.0 | 5124 | 1.3151 | 0.8738 |
| 0.6298 | 29.0 | 5307 | 1.2972 | 0.8514 |
| 0.6298 | 30.0 | 5490 | 1.3030 | 0.8432 |
| 0.4757 | 31.0 | 5673 | 1.3264 | 0.8364 |
| 0.4757 | 32.0 | 5856 | 1.3131 | 0.8421 |
| 0.3735 | 33.0 | 6039 | 1.3457 | 0.8588 |
| 0.3735 | 34.0 | 6222 | 1.3450 | 0.8473 |
| 0.3735 | 35.0 | 6405 | 1.3452 | 0.9218 |
| 0.3253 | 36.0 | 6588 | 1.3754 | 0.8397 |
| 0.3253 | 37.0 | 6771 | 1.3554 | 0.8353 |
| 0.3253 | 38.0 | 6954 | 1.3532 | 0.8312 |
| 0.2816 | 39.0 | 7137 | 1.3694 | 0.8345 |
| 0.2816 | 40.0 | 7320 | 1.3953 | 0.8296 |
| 0.2397 | 41.0 | 7503 | 1.3858 | 0.8293 |
| 0.2397 | 42.0 | 7686 | 1.3959 | 0.8402 |
| 0.2397 | 43.0 | 7869 | 1.4350 | 0.9318 |
| 0.2084 | 44.0 | 8052 | 1.4004 | 0.8806 |
| 0.2084 | 45.0 | 8235 | 1.3871 | 0.8255 |
| 0.2084 | 46.0 | 8418 | 1.4060 | 0.8252 |
| 0.1853 | 47.0 | 8601 | 1.3992 | 0.8501 |
| 0.1853 | 48.0 | 8784 | 1.4186 | 0.8252 |
| 0.1853 | 49.0 | 8967 | 1.4120 | 0.8165 |
| 0.1671 | 50.0 | 9150 | 1.4166 | 0.8214 |
| 0.1671 | 51.0 | 9333 | 1.4411 | 0.8501 |
| 0.1513 | 52.0 | 9516 | 1.4692 | 0.8394 |
| 0.1513 | 53.0 | 9699 | 1.4640 | 0.8391 |
| 0.1513 | 54.0 | 9882 | 1.4501 | 0.8419 |
| 0.133 | 55.0 | 10065 | 1.4134 | 0.8351 |
| 0.133 | 56.0 | 10248 | 1.4593 | 0.8405 |
| 0.133 | 57.0 | 10431 | 1.4560 | 0.8389 |
| 0.1198 | 58.0 | 10614 | 1.4734 | 0.8334 |
| 0.1198 | 59.0 | 10797 | 1.4649 | 0.8318 |
| 0.1198 | 60.0 | 10980 | 1.4659 | 0.8100 |
| 0.1109 | 61.0 | 11163 | 1.4784 | 0.8119 |
| 0.1109 | 62.0 | 11346 | 1.4938 | 0.8149 |
| 0.1063 | 63.0 | 11529 | 1.5050 | 0.8152 |
| 0.1063 | 64.0 | 11712 | 1.4773 | 0.8176 |
| 0.1063 | 65.0 | 11895 | 1.4836 | 0.8261 |
| 0.0966 | 66.0 | 12078 | 1.4979 | 0.8157 |
| 0.0966 | 67.0 | 12261 | 1.4603 | 0.8048 |
| 0.0966 | 68.0 | 12444 | 1.4803 | 0.8127 |
| 0.0867 | 69.0 | 12627 | 1.4974 | 0.8130 |
| 0.0867 | 70.0 | 12810 | 1.4721 | 0.8078 |
| 0.0867 | 71.0 | 12993 | 1.4644 | 0.8192 |
| 0.0827 | 72.0 | 13176 | 1.4835 | 0.8138 |
| 0.0827 | 73.0 | 13359 | 1.4934 | 0.8122 |
| 0.0734 | 74.0 | 13542 | 1.4951 | 0.8062 |
| 0.0734 | 75.0 | 13725 | 1.4908 | 0.8070 |
| 0.0734 | 76.0 | 13908 | 1.4876 | 0.8124 |
| 0.0664 | 77.0 | 14091 | 1.4934 | 0.8053 |
| 0.0664 | 78.0 | 14274 | 1.4603 | 0.8048 |
| 0.0664 | 79.0 | 14457 | 1.4732 | 0.8073 |
| 0.0602 | 80.0 | 14640 | 1.4925 | 0.8078 |
| 0.0602 | 81.0 | 14823 | 1.4812 | 0.8064 |
| 0.057 | 82.0 | 15006 | 1.4950 | 0.8013 |
| 0.057 | 83.0 | 15189 | 1.4785 | 0.8056 |
| 0.057 | 84.0 | 15372 | 1.4856 | 0.7993 |
| 0.0517 | 85.0 | 15555 | 1.4755 | 0.8034 |
| 0.0517 | 86.0 | 15738 | 1.4813 | 0.8034 |
| 0.0517 | 87.0 | 15921 | 1.4966 | 0.8048 |
| 0.0468 | 88.0 | 16104 | 1.4883 | 0.8002 |
| 0.0468 | 89.0 | 16287 | 1.4746 | 0.8023 |
| 0.0468 | 90.0 | 16470 | 1.4697 | 0.7974 |
| 0.0426 | 91.0 | 16653 | 1.4775 | 0.8004 |
| 0.0426 | 92.0 | 16836 | 1.4852 | 0.8023 |
| 0.0387 | 93.0 | 17019 | 1.4868 | 0.8004 |
| 0.0387 | 94.0 | 17202 | 1.4785 | 0.8021 |
| 0.0387 | 95.0 | 17385 | 1.4892 | 0.8015 |
| 0.0359 | 96.0 | 17568 | 1.4862 | 0.8018 |
| 0.0359 | 97.0 | 17751 | 1.4851 | 0.8007 |
| 0.0359 | 98.0 | 17934 | 1.4846 | 0.7999 |
| 0.0347 | 99.0 | 18117 | 1.4852 | 0.7993 |
| 0.0347 | 100.0 | 18300 | 1.4848 | 0.8004 |
#### Evaluation Commands
1. To evaluate on `mozilla-foundation/common_voice_8_0` with split `test`
```bash
python eval.py --model_id ivanlau/wav2vec2-large-xls-r-300m-cantonese --dataset mozilla-foundation/common_voice_8_0 --config zh-HK --split test --log_outputs
```
2. To evaluate on `speech-recognition-community-v2/dev_data`
```bash
python eval.py --model_id ivanlau/wav2vec2-large-xls-r-300m-cantonese --dataset speech-recognition-community-v2/dev_data --config zh-HK --split validation --chunk_length_s 5.0 --stride_length_s 1.0 --log_outputs
```
### Framework versions
- Transformers 4.17.0.dev0
- Pytorch 1.10.2+cu102
- Datasets 1.18.3
- Tokenizers 0.11.0
|
{"language": ["zh"], "license": "apache-2.0", "tags": ["automatic-speech-recognition", "generated_from_trainer", "hf-asr-leaderboard", "mozilla-foundation/common_voice_8_0", "robust-speech-event", "zh-HK"], "datasets": ["mozilla-foundation/common_voice_8_0"], "model-index": [{"name": "XLS-R-300M - Chinese_HongKong (Cantonese)", "results": [{"task": {"type": "automatic-speech-recognition", "name": "Automatic Speech Recognition"}, "dataset": {"name": "Common Voice 8", "type": "mozilla-foundation/common_voice_8_0", "args": "zh-hk"}, "metrics": [{"type": "wer", "value": 0.8111349803079126, "name": "Test WER"}, {"type": "cer", "value": 0.21962250882996914, "name": "Test CER"}, {"type": "wer", "value": 0.8055853920515574, "name": "Test WER with LM"}, {"type": "cer", "value": 0.21578686612008757, "name": "Test CER with LM"}]}, {"task": {"type": "automatic-speech-recognition", "name": "Automatic Speech Recognition"}, "dataset": {"name": "Robust Speech Event - Dev Data", "type": "speech-recognition-community-v2/dev_data", "args": "zh-hk"}, "metrics": [{"type": "wer", "value": 1.0, "name": "Test WER"}, {"type": "cer", "value": 0.6160564326503191, "name": "Test CER"}, {"type": "wer", "value": 1.0012453300124533, "name": "Test WER with LM"}, {"type": "cer", "value": 0.6153006382264025, "name": "Test CER with LM"}]}, {"task": {"type": "automatic-speech-recognition", "name": "Automatic Speech Recognition"}, "dataset": {"name": "Robust Speech Event - Test Data", "type": "speech-recognition-community-v2/eval_data", "args": "zh-HK"}, "metrics": [{"type": "cer", "value": 61.55, "name": "Test CER"}]}]}]}
|
ivanlau/wav2vec2-large-xls-r-300m-cantonese
| null |
[
"transformers",
"pytorch",
"wav2vec2",
"automatic-speech-recognition",
"generated_from_trainer",
"hf-asr-leaderboard",
"mozilla-foundation/common_voice_8_0",
"robust-speech-event",
"zh-HK",
"zh",
"dataset:mozilla-foundation/common_voice_8_0",
"license:apache-2.0",
"model-index",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"zh"
] |
TAGS
#transformers #pytorch #wav2vec2 #automatic-speech-recognition #generated_from_trainer #hf-asr-leaderboard #mozilla-foundation/common_voice_8_0 #robust-speech-event #zh-HK #zh #dataset-mozilla-foundation/common_voice_8_0 #license-apache-2.0 #model-index #endpoints_compatible #region-us
|
This model is a fine-tuned version of facebook/wav2vec2-xls-r-300m on the MOZILLA-FOUNDATION/COMMON\_VOICE\_8\_0 - ZH-HK dataset.
It achieves the following results on the evaluation set:
* Loss: 1.4848
* Wer: 0.8004
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 0.0003
* train\_batch\_size: 32
* eval\_batch\_size: 16
* seed: 42
* gradient\_accumulation\_steps: 2
* total\_train\_batch\_size: 64
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* lr\_scheduler\_warmup\_steps: 500
* num\_epochs: 100.0
* mixed\_precision\_training: Native AMP
### Training results
#### Evaluation Commands
1. To evaluate on 'mozilla-foundation/common\_voice\_8\_0' with split 'test'
2. To evaluate on 'speech-recognition-community-v2/dev\_data'
### Framework versions
* Transformers 4.17.0.dev0
* Pytorch 1.10.2+cu102
* Datasets 1.18.3
* Tokenizers 0.11.0
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 0.0003\n* train\\_batch\\_size: 32\n* eval\\_batch\\_size: 16\n* seed: 42\n* gradient\\_accumulation\\_steps: 2\n* total\\_train\\_batch\\_size: 64\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 500\n* num\\_epochs: 100.0\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"#### Evaluation Commands\n\n\n1. To evaluate on 'mozilla-foundation/common\\_voice\\_8\\_0' with split 'test'\n2. To evaluate on 'speech-recognition-community-v2/dev\\_data'",
"### Framework versions\n\n\n* Transformers 4.17.0.dev0\n* Pytorch 1.10.2+cu102\n* Datasets 1.18.3\n* Tokenizers 0.11.0"
] |
[
"TAGS\n#transformers #pytorch #wav2vec2 #automatic-speech-recognition #generated_from_trainer #hf-asr-leaderboard #mozilla-foundation/common_voice_8_0 #robust-speech-event #zh-HK #zh #dataset-mozilla-foundation/common_voice_8_0 #license-apache-2.0 #model-index #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 0.0003\n* train\\_batch\\_size: 32\n* eval\\_batch\\_size: 16\n* seed: 42\n* gradient\\_accumulation\\_steps: 2\n* total\\_train\\_batch\\_size: 64\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 500\n* num\\_epochs: 100.0\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"#### Evaluation Commands\n\n\n1. To evaluate on 'mozilla-foundation/common\\_voice\\_8\\_0' with split 'test'\n2. To evaluate on 'speech-recognition-community-v2/dev\\_data'",
"### Framework versions\n\n\n* Transformers 4.17.0.dev0\n* Pytorch 1.10.2+cu102\n* Datasets 1.18.3\n* Tokenizers 0.11.0"
] |
question-answering
|
transformers
|
# SciBERT-SQuAD-QuAC
This is the [SciBERT language representation model](https://huggingface.co/allenai/scibert_scivocab_uncased) fine tuned for Question Answering. SciBERT is a pre-trained language model based on BERT that has been trained on a large corpus of scientific text. When fine tuning for Question Answering we combined [SQuAD2.0](https://www.aclweb.org/anthology/P18-2124/) and [QuAC](https://arxiv.org/abs/1808.07036) datasets.
If using this model, please cite the following paper:
```
@inproceedings{otegi-etal-2020-automatic,
title = "Automatic Evaluation vs. User Preference in Neural Textual {Q}uestion{A}nswering over {COVID}-19 Scientific Literature",
author = "Otegi, Arantxa and
Campos, Jon Ander and
Azkune, Gorka and
Soroa, Aitor and
Agirre, Eneko",
booktitle = "Proceedings of the 1st Workshop on {NLP} for {COVID}-19 (Part 2) at {EMNLP} 2020",
month = dec,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.nlpcovid19-2.15",
doi = "10.18653/v1/2020.nlpcovid19-2.15",
}
```
|
{"language": "en"}
|
ixa-ehu/SciBERT-SQuAD-QuAC
| null |
[
"transformers",
"pytorch",
"safetensors",
"bert",
"question-answering",
"en",
"arxiv:1808.07036",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"1808.07036"
] |
[
"en"
] |
TAGS
#transformers #pytorch #safetensors #bert #question-answering #en #arxiv-1808.07036 #endpoints_compatible #has_space #region-us
|
# SciBERT-SQuAD-QuAC
This is the SciBERT language representation model fine tuned for Question Answering. SciBERT is a pre-trained language model based on BERT that has been trained on a large corpus of scientific text. When fine tuning for Question Answering we combined SQuAD2.0 and QuAC datasets.
If using this model, please cite the following paper:
|
[
"# SciBERT-SQuAD-QuAC\n\nThis is the SciBERT language representation model fine tuned for Question Answering. SciBERT is a pre-trained language model based on BERT that has been trained on a large corpus of scientific text. When fine tuning for Question Answering we combined SQuAD2.0 and QuAC datasets.\n\nIf using this model, please cite the following paper:"
] |
[
"TAGS\n#transformers #pytorch #safetensors #bert #question-answering #en #arxiv-1808.07036 #endpoints_compatible #has_space #region-us \n",
"# SciBERT-SQuAD-QuAC\n\nThis is the SciBERT language representation model fine tuned for Question Answering. SciBERT is a pre-trained language model based on BERT that has been trained on a large corpus of scientific text. When fine tuning for Question Answering we combined SQuAD2.0 and QuAC datasets.\n\nIf using this model, please cite the following paper:"
] |
feature-extraction
|
transformers
|
# BERTeus base cased
This is the Basque language pretrained model presented in [Give your Text Representation Models some Love: the Case for Basque](https://arxiv.org/pdf/2004.00033.pdf). This model has been trained on a Basque corpus comprising Basque crawled news articles from online newspapers and the Basque Wikipedia. The training corpus contains 224.6 million tokens, of which 35 million come from the Wikipedia.
BERTeus has been tested on four different downstream tasks for Basque: part-of-speech (POS) tagging, named entity recognition (NER), sentiment analysis and topic classification; improving the state of the art for all tasks. See summary of results below:
| Downstream task | BERTeus | mBERT | Previous SOTA |
| --------------- | ------- | ------| ------------- |
| Topic Classification | **76.77** | 68.42 | 63.00 |
| Sentiment | **78.10** | 71.02 | 74.02 |
| POS | **97.76** | 96.37 | 96.10 |
| NER | **87.06** | 81.52 | 76.72 |
If using this model, please cite the following paper:
```
@inproceedings{agerri2020give,
title={Give your Text Representation Models some Love: the Case for Basque},
author={Rodrigo Agerri and I{\~n}aki San Vicente and Jon Ander Campos and Ander Barrena and Xabier Saralegi and Aitor Soroa and Eneko Agirre},
booktitle={Proceedings of the 12th International Conference on Language Resources and Evaluation},
year={2020}
}
```
|
{"language": "eu"}
|
ixa-ehu/berteus-base-cased
| null |
[
"transformers",
"pytorch",
"jax",
"safetensors",
"bert",
"feature-extraction",
"eu",
"arxiv:2004.00033",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2004.00033"
] |
[
"eu"
] |
TAGS
#transformers #pytorch #jax #safetensors #bert #feature-extraction #eu #arxiv-2004.00033 #endpoints_compatible #region-us
|
BERTeus base cased
==================
This is the Basque language pretrained model presented in Give your Text Representation Models some Love: the Case for Basque. This model has been trained on a Basque corpus comprising Basque crawled news articles from online newspapers and the Basque Wikipedia. The training corpus contains 224.6 million tokens, of which 35 million come from the Wikipedia.
BERTeus has been tested on four different downstream tasks for Basque: part-of-speech (POS) tagging, named entity recognition (NER), sentiment analysis and topic classification; improving the state of the art for all tasks. See summary of results below:
If using this model, please cite the following paper:
|
[] |
[
"TAGS\n#transformers #pytorch #jax #safetensors #bert #feature-extraction #eu #arxiv-2004.00033 #endpoints_compatible #region-us \n"
] |
null |
transformers
|
# IXAmBERT base cased
This is a multilingual language pretrained for English, Spanish and Basque. The training corpora is composed by the English, Spanish and Basque Wikipedias, together with Basque crawled news articles from online newspapers. The model has been successfully used to transfer knowledge from English to Basque in a conversational QA system, as reported in the paper [Conversational Question Answering in Low Resource Scenarios: A Dataset and Case Study for Basque](http://www.lrec-conf.org/proceedings/lrec2020/pdf/2020.lrec-1.55.pdf). In the paper, IXAmBERT performed better than mBERT when transferring knowledge from English to Basque, as shown in the following Table:
| Model | Zero-shot | Transfer learning |
|--------------------|-----------|-------------------|
| Baseline | 28.7 | 28.7 |
| mBERT | 31.5 | 37.4 |
| IXAmBERT | 38.9 | **41.2** |
| mBERT + history | 33.3 | 28.7 |
| IXAmBERT + history | **40.7** | 40.0 |
This Table shows the results on a Basque CQA dataset. *Zero-shot* means that the model is fine-tuned using using QuaC, an English CQA dataset. In the *Transfer Learning* setting the model is first fine-tuned on QuaC, and then on a Basque CQA dataset.
If using this model, please cite the following paper:
```
@inproceedings{otegi2020conversational,
title={Conversational Question Answering in Low Resource Scenarios: A Dataset and Case Study for Basque},
author={Otegi, Arantxa and Agirre, Aitor and Campos, Jon Ander and Soroa, Aitor and Agirre, Eneko},
booktitle={Proceedings of The 12th Language Resources and Evaluation Conference},
pages={436--442},
year={2020}
}
```
|
{"language": ["en", "es", "eu", "multilingual"]}
|
ixa-ehu/ixambert-base-cased
| null |
[
"transformers",
"pytorch",
"en",
"es",
"eu",
"multilingual",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en",
"es",
"eu",
"multilingual"
] |
TAGS
#transformers #pytorch #en #es #eu #multilingual #endpoints_compatible #region-us
|
IXAmBERT base cased
===================
This is a multilingual language pretrained for English, Spanish and Basque. The training corpora is composed by the English, Spanish and Basque Wikipedias, together with Basque crawled news articles from online newspapers. The model has been successfully used to transfer knowledge from English to Basque in a conversational QA system, as reported in the paper Conversational Question Answering in Low Resource Scenarios: A Dataset and Case Study for Basque. In the paper, IXAmBERT performed better than mBERT when transferring knowledge from English to Basque, as shown in the following Table:
Model: Baseline, Zero-shot: 28.7, Transfer learning: 28.7
Model: mBERT, Zero-shot: 31.5, Transfer learning: 37.4
Model: IXAmBERT, Zero-shot: 38.9, Transfer learning: 41.2
Model: mBERT + history, Zero-shot: 33.3, Transfer learning: 28.7
Model: IXAmBERT + history, Zero-shot: 40.7, Transfer learning: 40.0
This Table shows the results on a Basque CQA dataset. *Zero-shot* means that the model is fine-tuned using using QuaC, an English CQA dataset. In the *Transfer Learning* setting the model is first fine-tuned on QuaC, and then on a Basque CQA dataset.
If using this model, please cite the following paper:
|
[] |
[
"TAGS\n#transformers #pytorch #en #es #eu #multilingual #endpoints_compatible #region-us \n"
] |
fill-mask
|
transformers
|
# BERT small Japanese finance
This is a [BERT](https://github.com/google-research/bert) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as BERT small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on Wikipedia corpus and financial corpus.
The Wikipedia corpus is generated from the Japanese Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as BERT small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 128 tokens per instance, 128 instances per batch, and 1.45M training steps.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "tags": ["finance"], "widget": [{"text": "\u6d41\u52d5[MASK]\u306f\u30011\u5104\u5186\u3068\u306a\u308a\u307e\u3057\u305f\u3002"}]}
|
izumi-lab/bert-small-japanese-fin
| null |
[
"transformers",
"pytorch",
"bert",
"fill-mask",
"finance",
"ja",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #bert #fill-mask #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# BERT small Japanese finance
This is a BERT model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as BERT small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on Wikipedia corpus and financial corpus.
The Wikipedia corpus is generated from the Japanese Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as BERT small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1.45M training steps.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# BERT small Japanese finance\n\nThis is a BERT model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as BERT small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on Wikipedia corpus and financial corpus.\n\nThe Wikipedia corpus is generated from the Japanese Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as BERT small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1.45M training steps.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #bert #fill-mask #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# BERT small Japanese finance\n\nThis is a BERT model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as BERT small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on Wikipedia corpus and financial corpus.\n\nThe Wikipedia corpus is generated from the Japanese Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as BERT small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1.45M training steps.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
fill-mask
|
transformers
|
# BERT small Japanese finance
This is a [BERT](https://github.com/google-research/bert) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as BERT small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as BERT small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 128 tokens per instance, 128 instances per batch, and 1.45M training steps.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/bert-small-japanese
| null |
[
"transformers",
"pytorch",
"bert",
"fill-mask",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #bert #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# BERT small Japanese finance
This is a BERT model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as BERT small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as BERT small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1.45M training steps.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# BERT small Japanese finance\n\nThis is a BERT model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as BERT small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as BERT small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1.45M training steps.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #bert #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# BERT small Japanese finance\n\nThis is a BERT model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as BERT small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as BERT small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1.45M training steps.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
null |
transformers
|
# ELECTRA base Japanese discriminator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA base in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 768 dimensions of hidden states, and 12 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA base in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 512 tokens per instance, 256 instances per batch, and 766k training steps.
The size of the generator is 1/3 of the size of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/electra-base-japanese-discriminator
| null |
[
"transformers",
"pytorch",
"electra",
"pretraining",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #electra #pretraining #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us
|
# ELECTRA base Japanese discriminator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA base in the original ELECTRA paper; 12 layers, 768 dimensions of hidden states, and 12 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA base in the original ELECTRA paper; 512 tokens per instance, 256 instances per batch, and 766k training steps.
The size of the generator is 1/3 of the size of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA base Japanese discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA base in the original ELECTRA paper; 12 layers, 768 dimensions of hidden states, and 12 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA base in the original ELECTRA paper; 512 tokens per instance, 256 instances per batch, and 766k training steps.\n\nThe size of the generator is 1/3 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #electra #pretraining #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us \n",
"# ELECTRA base Japanese discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA base in the original ELECTRA paper; 12 layers, 768 dimensions of hidden states, and 12 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA base in the original ELECTRA paper; 512 tokens per instance, 256 instances per batch, and 766k training steps.\n\nThe size of the generator is 1/3 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
fill-mask
|
transformers
|
# ELECTRA base Japanese generator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA base in the [original ELECTRA implementation](https://github.com/google-research/electra); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA base in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555) except size; 512 tokens per instance, 256 instances per batch, and 766k training steps.
The size of the generator is 1/3 of the size of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/electra-base-japanese-generator
| null |
[
"transformers",
"pytorch",
"safetensors",
"electra",
"fill-mask",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #safetensors #electra #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# ELECTRA base Japanese generator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA base in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA base in the original ELECTRA paper except size; 512 tokens per instance, 256 instances per batch, and 766k training steps.
The size of the generator is 1/3 of the size of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA base Japanese generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA base in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA base in the original ELECTRA paper except size; 512 tokens per instance, 256 instances per batch, and 766k training steps.\n\nThe size of the generator is 1/3 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #safetensors #electra #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# ELECTRA base Japanese generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA base in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA base in the original ELECTRA paper except size; 512 tokens per instance, 256 instances per batch, and 766k training steps.\n\nThe size of the generator is 1/3 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
null |
transformers
|
# ELECTRA small Japanese discriminator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA implementation](https://github.com/google-research/electra); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555) except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/electra-small-japanese-discriminator
| null |
[
"transformers",
"pytorch",
"electra",
"pretraining",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #electra #pretraining #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us
|
# ELECTRA small Japanese discriminator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #electra #pretraining #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
null |
transformers
|
# ELECTRA small Japanese finance discriminator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA implementation](https://github.com/google-research/electra); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555) except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "tags": ["finance"], "widget": [{"text": "\u6d41\u52d5[MASK]\u306f1\u5104\u5186\u3068\u306a\u308a\u307e\u3057\u305f\u3002"}]}
|
izumi-lab/electra-small-japanese-fin-discriminator
| null |
[
"transformers",
"pytorch",
"electra",
"pretraining",
"finance",
"ja",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #electra #pretraining #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us
|
# ELECTRA small Japanese finance discriminator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese finance discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #electra #pretraining #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese finance discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
fill-mask
|
transformers
|
# ELECTRA small Japanese finance generator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA implementation](https://github.com/google-research/electra); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555) except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "tags": ["finance"], "widget": [{"text": "\u6d41\u52d5[MASK]\u306f1\u5104\u5186\u3068\u306a\u308a\u307e\u3057\u305f\u3002"}]}
|
izumi-lab/electra-small-japanese-fin-generator
| null |
[
"transformers",
"pytorch",
"safetensors",
"electra",
"fill-mask",
"finance",
"ja",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #safetensors #electra #fill-mask #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# ELECTRA small Japanese finance generator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese finance generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #safetensors #electra #fill-mask #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese finance generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
fill-mask
|
transformers
|
# ELECTRA small Japanese generator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA implementation](https://github.com/google-research/electra); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555) except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/electra-small-japanese-generator
| null |
[
"transformers",
"pytorch",
"safetensors",
"electra",
"fill-mask",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #safetensors #electra #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# ELECTRA small Japanese generator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is the same of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #safetensors #electra #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA implementation; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper except size; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is the same of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
null |
transformers
|
# ELECTRA small Japanese discriminator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is 1/4 of the size of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/electra-small-paper-japanese-discriminator
| null |
[
"transformers",
"pytorch",
"electra",
"pretraining",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #electra #pretraining #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us
|
# ELECTRA small Japanese discriminator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is 1/4 of the size of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is 1/4 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #electra #pretraining #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is 1/4 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
null |
transformers
|
# ELECTRA small Japanese finance discriminator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 128 tokens per instance, 128 instances per batch, and 1M training steps.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "tags": ["finance"], "widget": [{"text": "\u6d41\u52d5[MASK]\u306f1\u5104\u5186\u3068\u306a\u308a\u307e\u3057\u305f\u3002"}]}
|
izumi-lab/electra-small-paper-japanese-fin-discriminator
| null |
[
"transformers",
"pytorch",
"electra",
"pretraining",
"finance",
"ja",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #electra #pretraining #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us
|
# ELECTRA small Japanese finance discriminator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese finance discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #electra #pretraining #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese finance discriminator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 256 dimensions of hidden states, and 4 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
fill-mask
|
transformers
|
# ELECTRA small Japanese finance generator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 64 dimensions of hidden states, and 1 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is 1/4 of the size of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "tags": ["finance"], "widget": [{"text": "\u6d41\u52d5[MASK]\u306f1\u5104\u5186\u3068\u306a\u308a\u307e\u3057\u305f\u3002"}]}
|
izumi-lab/electra-small-paper-japanese-fin-generator
| null |
[
"transformers",
"pytorch",
"safetensors",
"electra",
"fill-mask",
"finance",
"ja",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #safetensors #electra #fill-mask #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# ELECTRA small Japanese finance generator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 64 dimensions of hidden states, and 1 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.
The financial corpus consists of 2 corpora:
- Summaries of financial results from October 9, 2012, to December 31, 2020
- Securities reports from February 8, 2018, to December 31, 2020
The financial corpus file is 5.2GB, consisting of approximately 27M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is 1/4 of the size of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese finance generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 64 dimensions of hidden states, and 1 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is 1/4 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #safetensors #electra #fill-mask #finance #ja #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese finance generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 64 dimensions of hidden states, and 1 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe Wikipedia corpus file is 2.9GB, consisting of approximately 20M sentences.\n\nThe financial corpus consists of 2 corpora:\n\n- Summaries of financial results from October 9, 2012, to December 31, 2020\n\n- Securities reports from February 8, 2018, to December 31, 2020\n\nThe financial corpus file is 5.2GB, consisting of approximately 27M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is 1/4 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
fill-mask
|
transformers
|
# ELECTRA small Japanese generator
This is a [ELECTRA](https://github.com/google-research/electra) model pretrained on texts in the Japanese language.
The codes for the pretraining are available at [retarfi/language-pretraining](https://github.com/retarfi/language-pretraining/tree/v1.0).
## Model architecture
The model architecture is the same as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 12 layers, 64 dimensions of hidden states, and 1 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the [original ELECTRA paper](https://arxiv.org/abs/2003.10555); 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is 1/4 of the size of the discriminator.
## Citation
```
@article{Suzuki-etal-2023-ipm,
title = {Constructing and analyzing domain-specific language model for financial text mining}
author = {Masahiro Suzuki and Hiroki Sakaji and Masanori Hirano and Kiyoshi Izumi},
journal = {Information Processing & Management},
volume = {60},
number = {2},
pages = {103194},
year = {2023},
doi = {10.1016/j.ipm.2022.103194}
}
```
## Licenses
The pretrained models are distributed under the terms of the [Creative Commons Attribution-ShareAlike 4.0](https://creativecommons.org/licenses/by-sa/4.0/).
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
{"language": "ja", "license": "cc-by-sa-4.0", "datasets": ["wikipedia"], "widget": [{"text": "\u6771\u4eac\u5927\u5b66\u3067[MASK]\u306e\u7814\u7a76\u3092\u3057\u3066\u3044\u307e\u3059\u3002"}]}
|
izumi-lab/electra-small-paper-japanese-generator
| null |
[
"transformers",
"pytorch",
"safetensors",
"electra",
"fill-mask",
"ja",
"dataset:wikipedia",
"arxiv:2003.10555",
"license:cc-by-sa-4.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2003.10555"
] |
[
"ja"
] |
TAGS
#transformers #pytorch #safetensors #electra #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us
|
# ELECTRA small Japanese generator
This is a ELECTRA model pretrained on texts in the Japanese language.
The codes for the pretraining are available at retarfi/language-pretraining.
## Model architecture
The model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 64 dimensions of hidden states, and 1 attention heads.
## Training Data
The models are trained on the Japanese version of Wikipedia.
The training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021.
The corpus file is 2.9GB, consisting of approximately 20M sentences.
## Tokenization
The texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.
The vocabulary size is 32768.
## Training
The models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.
The size of the generator is 1/4 of the size of the discriminator.
## Licenses
The pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.
## Acknowledgments
This work was supported by JSPS KAKENHI Grant Number JP21K12010.
|
[
"# ELECTRA small Japanese generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 64 dimensions of hidden states, and 1 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is 1/4 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
[
"TAGS\n#transformers #pytorch #safetensors #electra #fill-mask #ja #dataset-wikipedia #arxiv-2003.10555 #license-cc-by-sa-4.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# ELECTRA small Japanese generator\n\nThis is a ELECTRA model pretrained on texts in the Japanese language.\n\nThe codes for the pretraining are available at retarfi/language-pretraining.",
"## Model architecture\n\nThe model architecture is the same as ELECTRA small in the original ELECTRA paper; 12 layers, 64 dimensions of hidden states, and 1 attention heads.",
"## Training Data\n\nThe models are trained on the Japanese version of Wikipedia.\n\nThe training corpus is generated from the Japanese version of Wikipedia, using Wikipedia dump file as of June 1, 2021. \n\nThe corpus file is 2.9GB, consisting of approximately 20M sentences.",
"## Tokenization\n\nThe texts are first tokenized by MeCab with IPA dictionary and then split into subwords by the WordPiece algorithm.\n\nThe vocabulary size is 32768.",
"## Training\n\nThe models are trained with the same configuration as ELECTRA small in the original ELECTRA paper; 128 tokens per instance, 128 instances per batch, and 1M training steps.\n\nThe size of the generator is 1/4 of the size of the discriminator.",
"## Licenses\n\nThe pretrained models are distributed under the terms of the Creative Commons Attribution-ShareAlike 4.0.",
"## Acknowledgments\n\nThis work was supported by JSPS KAKENHI Grant Number JP21K12010."
] |
automatic-speech-recognition
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# wav2vec2-base-timit-demo-colab
This model is a fine-tuned version of [facebook/wav2vec2-base](https://huggingface.co/facebook/wav2vec2-base) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.4545
- Wer: 0.3450
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0001
- train_batch_size: 32
- eval_batch_size: 8
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 1000
- num_epochs: 30
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Wer |
|:-------------:|:-----:|:----:|:---------------:|:------:|
| 3.3801 | 4.0 | 500 | 1.1501 | 0.8820 |
| 0.561 | 8.0 | 1000 | 0.4583 | 0.4211 |
| 0.2198 | 12.0 | 1500 | 0.4467 | 0.3997 |
| 0.1255 | 16.0 | 2000 | 0.4390 | 0.3677 |
| 0.0862 | 20.0 | 2500 | 0.4934 | 0.3603 |
| 0.0617 | 24.0 | 3000 | 0.4641 | 0.3549 |
| 0.0465 | 28.0 | 3500 | 0.4545 | 0.3450 |
### Framework versions
- Transformers 4.11.3
- Pytorch 1.10.0+cu111
- Datasets 1.18.3
- Tokenizers 0.10.3
|
{"license": "apache-2.0", "tags": ["generated_from_trainer"], "model-index": [{"name": "wav2vec2-base-timit-demo-colab", "results": []}]}
|
izzy-lazerson/wav2vec2-base-timit-demo-colab
| null |
[
"transformers",
"pytorch",
"tensorboard",
"wav2vec2",
"automatic-speech-recognition",
"generated_from_trainer",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #tensorboard #wav2vec2 #automatic-speech-recognition #generated_from_trainer #license-apache-2.0 #endpoints_compatible #region-us
|
wav2vec2-base-timit-demo-colab
==============================
This model is a fine-tuned version of facebook/wav2vec2-base on the None dataset.
It achieves the following results on the evaluation set:
* Loss: 0.4545
* Wer: 0.3450
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 0.0001
* train\_batch\_size: 32
* eval\_batch\_size: 8
* seed: 42
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* lr\_scheduler\_warmup\_steps: 1000
* num\_epochs: 30
* mixed\_precision\_training: Native AMP
### Training results
### Framework versions
* Transformers 4.11.3
* Pytorch 1.10.0+cu111
* Datasets 1.18.3
* Tokenizers 0.10.3
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 0.0001\n* train\\_batch\\_size: 32\n* eval\\_batch\\_size: 8\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 1000\n* num\\_epochs: 30\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.10.0+cu111\n* Datasets 1.18.3\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #tensorboard #wav2vec2 #automatic-speech-recognition #generated_from_trainer #license-apache-2.0 #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 0.0001\n* train\\_batch\\_size: 32\n* eval\\_batch\\_size: 8\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 1000\n* num\\_epochs: 30\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.10.0+cu111\n* Datasets 1.18.3\n* Tokenizers 0.10.3"
] |
automatic-speech-recognition
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# wav2vec2-large-xls-r-300m-turkish-colab
This model is a fine-tuned version of [facebook/wav2vec2-xls-r-300m](https://huggingface.co/facebook/wav2vec2-xls-r-300m) on the common_voice dataset.
It achieves the following results on the evaluation set:
- Loss: 0.3866
- Wer: 0.3363
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0003
- train_batch_size: 16
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 2
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 30
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Wer |
|:-------------:|:-----:|:----:|:---------------:|:------:|
| 3.9949 | 3.67 | 400 | 0.7055 | 0.6984 |
| 0.4192 | 7.34 | 800 | 0.4530 | 0.4711 |
| 0.1987 | 11.01 | 1200 | 0.4319 | 0.4384 |
| 0.1317 | 14.68 | 1600 | 0.4332 | 0.4179 |
| 0.0988 | 18.35 | 2000 | 0.4201 | 0.3755 |
| 0.0791 | 22.02 | 2400 | 0.3968 | 0.3723 |
| 0.0628 | 25.69 | 2800 | 0.3998 | 0.3477 |
| 0.0501 | 29.36 | 3200 | 0.3866 | 0.3363 |
### Framework versions
- Transformers 4.11.3
- Pytorch 1.10.0+cu111
- Datasets 1.18.3
- Tokenizers 0.10.3
|
{"license": "apache-2.0", "tags": ["generated_from_trainer"], "datasets": ["common_voice"], "model-index": [{"name": "wav2vec2-large-xls-r-300m-turkish-colab", "results": []}]}
|
izzy-lazerson/wav2vec2-large-xls-r-300m-turkish-colab
| null |
[
"transformers",
"pytorch",
"tensorboard",
"wav2vec2",
"automatic-speech-recognition",
"generated_from_trainer",
"dataset:common_voice",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #tensorboard #wav2vec2 #automatic-speech-recognition #generated_from_trainer #dataset-common_voice #license-apache-2.0 #endpoints_compatible #region-us
|
wav2vec2-large-xls-r-300m-turkish-colab
=======================================
This model is a fine-tuned version of facebook/wav2vec2-xls-r-300m on the common\_voice dataset.
It achieves the following results on the evaluation set:
* Loss: 0.3866
* Wer: 0.3363
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 0.0003
* train\_batch\_size: 16
* eval\_batch\_size: 8
* seed: 42
* gradient\_accumulation\_steps: 2
* total\_train\_batch\_size: 32
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* lr\_scheduler\_warmup\_steps: 500
* num\_epochs: 30
* mixed\_precision\_training: Native AMP
### Training results
### Framework versions
* Transformers 4.11.3
* Pytorch 1.10.0+cu111
* Datasets 1.18.3
* Tokenizers 0.10.3
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 0.0003\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 8\n* seed: 42\n* gradient\\_accumulation\\_steps: 2\n* total\\_train\\_batch\\_size: 32\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 500\n* num\\_epochs: 30\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.10.0+cu111\n* Datasets 1.18.3\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #tensorboard #wav2vec2 #automatic-speech-recognition #generated_from_trainer #dataset-common_voice #license-apache-2.0 #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 0.0003\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 8\n* seed: 42\n* gradient\\_accumulation\\_steps: 2\n* total\\_train\\_batch\\_size: 32\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* lr\\_scheduler\\_warmup\\_steps: 500\n* num\\_epochs: 30\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.10.0+cu111\n* Datasets 1.18.3\n* Tokenizers 0.10.3"
] |
text-classification
|
transformers
|
# Emotion English DistilRoBERTa-base
# Description ℹ
With this model, you can classify emotions in English text data. The model was trained on 6 diverse datasets (see Appendix below) and predicts Ekman's 6 basic emotions, plus a neutral class:
1) anger 🤬
2) disgust 🤢
3) fear 😨
4) joy 😀
5) neutral 😐
6) sadness 😭
7) surprise 😲
The model is a fine-tuned checkpoint of [DistilRoBERTa-base](https://huggingface.co/distilroberta-base). For a 'non-distilled' emotion model, please refer to the model card of the [RoBERTa-large](https://huggingface.co/j-hartmann/emotion-english-roberta-large) version.
# Application 🚀
a) Run emotion model with 3 lines of code on single text example using Hugging Face's pipeline command on Google Colab:
[](https://colab.research.google.com/github/j-hartmann/emotion-english-distilroberta-base/blob/main/simple_emotion_pipeline.ipynb)
```python
from transformers import pipeline
classifier = pipeline("text-classification", model="j-hartmann/emotion-english-distilroberta-base", return_all_scores=True)
classifier("I love this!")
```
```python
Output:
[[{'label': 'anger', 'score': 0.004419783595949411},
{'label': 'disgust', 'score': 0.0016119900392368436},
{'label': 'fear', 'score': 0.0004138521908316761},
{'label': 'joy', 'score': 0.9771687984466553},
{'label': 'neutral', 'score': 0.005764586851000786},
{'label': 'sadness', 'score': 0.002092392183840275},
{'label': 'surprise', 'score': 0.008528684265911579}]]
```
b) Run emotion model on multiple examples and full datasets (e.g., .csv files) on Google Colab:
[](https://colab.research.google.com/github/j-hartmann/emotion-english-distilroberta-base/blob/main/emotion_prediction_example.ipynb)
# Contact 💻
Please reach out to [jochen.hartmann@tum.de](mailto:jochen.hartmann@tum.de) if you have any questions or feedback.
Thanks to Samuel Domdey and [chrsiebert](https://huggingface.co/siebert) for their support in making this model available.
# Reference ✅
For attribution, please cite the following reference if you use this model. A working paper will be available soon.
```
Jochen Hartmann, "Emotion English DistilRoBERTa-base". https://huggingface.co/j-hartmann/emotion-english-distilroberta-base/, 2022.
```
BibTex citation:
```
@misc{hartmann2022emotionenglish,
author={Hartmann, Jochen},
title={Emotion English DistilRoBERTa-base},
year={2022},
howpublished = {\url{https://huggingface.co/j-hartmann/emotion-english-distilroberta-base/}},
}
```
# Appendix 📚
Please find an overview of the datasets used for training below. All datasets contain English text. The table summarizes which emotions are available in each of the datasets. The datasets represent a diverse collection of text types. Specifically, they contain emotion labels for texts from Twitter, Reddit, student self-reports, and utterances from TV dialogues. As MELD (Multimodal EmotionLines Dataset) extends the popular EmotionLines dataset, EmotionLines itself is not included here.
|Name|anger|disgust|fear|joy|neutral|sadness|surprise|
|---|---|---|---|---|---|---|---|
|Crowdflower (2016)|Yes|-|-|Yes|Yes|Yes|Yes|
|Emotion Dataset, Elvis et al. (2018)|Yes|-|Yes|Yes|-|Yes|Yes|
|GoEmotions, Demszky et al. (2020)|Yes|Yes|Yes|Yes|Yes|Yes|Yes|
|ISEAR, Vikash (2018)|Yes|Yes|Yes|Yes|-|Yes|-|
|MELD, Poria et al. (2019)|Yes|Yes|Yes|Yes|Yes|Yes|Yes|
|SemEval-2018, EI-reg, Mohammad et al. (2018) |Yes|-|Yes|Yes|-|Yes|-|
The model is trained on a balanced subset from the datasets listed above (2,811 observations per emotion, i.e., nearly 20k observations in total). 80% of this balanced subset is used for training and 20% for evaluation. The evaluation accuracy is 66% (vs. the random-chance baseline of 1/7 = 14%).
# Scientific Applications 📖
Below you can find a list of papers using "Emotion English DistilRoBERTa-base". If you would like your paper to be added to the list, please send me an email.
- Butt, S., Sharma, S., Sharma, R., Sidorov, G., & Gelbukh, A. (2022). What goes on inside rumour and non-rumour tweets and their reactions: A Psycholinguistic Analyses. Computers in Human Behavior, 107345.
- Kuang, Z., Zong, S., Zhang, J., Chen, J., & Liu, H. (2022). Music-to-Text Synaesthesia: Generating Descriptive Text from Music Recordings. arXiv preprint arXiv:2210.00434.
- Rozado, D., Hughes, R., & Halberstadt, J. (2022). Longitudinal analysis of sentiment and emotion in news media headlines using automated labelling with Transformer language models. Plos one, 17(10), e0276367.
|
{"language": "en", "tags": ["distilroberta", "sentiment", "emotion", "twitter", "reddit"], "widget": [{"text": "Oh wow. I didn't know that."}, {"text": "This movie always makes me cry.."}, {"text": "Oh Happy Day"}]}
|
j-hartmann/emotion-english-distilroberta-base
| null |
[
"transformers",
"pytorch",
"tf",
"roberta",
"text-classification",
"distilroberta",
"sentiment",
"emotion",
"twitter",
"reddit",
"en",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #tf #roberta #text-classification #distilroberta #sentiment #emotion #twitter #reddit #en #autotrain_compatible #endpoints_compatible #has_space #region-us
|
Emotion English DistilRoBERTa-base
==================================
Description ℹ
=============
With this model, you can classify emotions in English text data. The model was trained on 6 diverse datasets (see Appendix below) and predicts Ekman's 6 basic emotions, plus a neutral class:
1. anger
2. disgust
3. fear
4. joy
5. neutral
6. sadness
7. surprise
The model is a fine-tuned checkpoint of DistilRoBERTa-base. For a 'non-distilled' emotion model, please refer to the model card of the RoBERTa-large version.
Application
===========
a) Run emotion model with 3 lines of code on single text example using Hugging Face's pipeline command on Google Colab:
 Run emotion model on multiple examples and full datasets (e.g., .csv files) on Google Colab:
 extends the popular EmotionLines dataset, EmotionLines itself is not included here.
The model is trained on a balanced subset from the datasets listed above (2,811 observations per emotion, i.e., nearly 20k observations in total). 80% of this balanced subset is used for training and 20% for evaluation. The evaluation accuracy is 66% (vs. the random-chance baseline of 1/7 = 14%).
Scientific Applications
=======================
Below you can find a list of papers using "Emotion English DistilRoBERTa-base". If you would like your paper to be added to the list, please send me an email.
* Butt, S., Sharma, S., Sharma, R., Sidorov, G., & Gelbukh, A. (2022). What goes on inside rumour and non-rumour tweets and their reactions: A Psycholinguistic Analyses. Computers in Human Behavior, 107345.
* Kuang, Z., Zong, S., Zhang, J., Chen, J., & Liu, H. (2022). Music-to-Text Synaesthesia: Generating Descriptive Text from Music Recordings. arXiv preprint arXiv:2210.00434.
* Rozado, D., Hughes, R., & Halberstadt, J. (2022). Longitudinal analysis of sentiment and emotion in news media headlines using automated labelling with Transformer language models. Plos one, 17(10), e0276367.
|
[] |
[
"TAGS\n#transformers #pytorch #tf #roberta #text-classification #distilroberta #sentiment #emotion #twitter #reddit #en #autotrain_compatible #endpoints_compatible #has_space #region-us \n"
] |
text-classification
|
transformers
|
## Description ℹ
With this model, you can classify emotions in English text data. The model was trained on 6 diverse datasets and predicts Ekman's 6 basic emotions, plus a neutral class:
1) anger 🤬
2) disgust 🤢
3) fear 😨
4) joy 😀
5) neutral 😐
6) sadness 😭
7) surprise 😲
The model is a fine-tuned checkpoint of [RoBERTa-large](https://huggingface.co/roberta-large).
For further details on this emotion model, please refer to the model card of its [DistilRoBERTa](https://huggingface.co/j-hartmann/emotion-english-distilroberta-base) version.
|
{"language": "en", "tags": ["roberta", "sentiment", "emotion", "twitter", "reddit"], "widget": [{"text": "Oh wow. I didn't know that."}, {"text": "This movie always makes me cry.."}, {"text": "Oh Happy Day"}]}
|
j-hartmann/emotion-english-roberta-large
| null |
[
"transformers",
"pytorch",
"roberta",
"text-classification",
"sentiment",
"emotion",
"twitter",
"reddit",
"en",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #roberta #text-classification #sentiment #emotion #twitter #reddit #en #autotrain_compatible #endpoints_compatible #has_space #region-us
|
## Description ℹ
With this model, you can classify emotions in English text data. The model was trained on 6 diverse datasets and predicts Ekman's 6 basic emotions, plus a neutral class:
1) anger
2) disgust
3) fear
4) joy
5) neutral
6) sadness
7) surprise
The model is a fine-tuned checkpoint of RoBERTa-large.
For further details on this emotion model, please refer to the model card of its DistilRoBERTa version.
|
[
"## Description ℹ\n\nWith this model, you can classify emotions in English text data. The model was trained on 6 diverse datasets and predicts Ekman's 6 basic emotions, plus a neutral class:\n\n1) anger \n2) disgust \n3) fear \n4) joy \n5) neutral \n6) sadness \n7) surprise \n\nThe model is a fine-tuned checkpoint of RoBERTa-large. \n\nFor further details on this emotion model, please refer to the model card of its DistilRoBERTa version."
] |
[
"TAGS\n#transformers #pytorch #roberta #text-classification #sentiment #emotion #twitter #reddit #en #autotrain_compatible #endpoints_compatible #has_space #region-us \n",
"## Description ℹ\n\nWith this model, you can classify emotions in English text data. The model was trained on 6 diverse datasets and predicts Ekman's 6 basic emotions, plus a neutral class:\n\n1) anger \n2) disgust \n3) fear \n4) joy \n5) neutral \n6) sadness \n7) surprise \n\nThe model is a fine-tuned checkpoint of RoBERTa-large. \n\nFor further details on this emotion model, please refer to the model card of its DistilRoBERTa version."
] |
text-classification
|
transformers
|
This RoBERTa-based model ("MindMiner") can classify the degree of mind perception in English language text in 2 classes:
- high mind perception 👩
- low mind perception 🤖
The model was fine-tuned on 997 manually annotated open-ended survey responses.
The hold-out accuracy is 75.5% (vs. a balanced 50% random-chance baseline).
Hartmann, J., Bergner, A., & Hildebrand, C. (2023). MindMiner: Uncovering Linguistic Markers of Mind Perception as a New Lens to Understand Consumer-Smart Object Relationships. Journal of Consumer Psychology, Forthcoming.
|
{"language": "en", "tags": ["roberta"], "widget": [{"text": "Alexa is part of our family. She is simply amazing!"}, {"text": "I use my smart assistant for may things. It's incredibly useful."}]}
|
j-hartmann/MindMiner-Binary
| null |
[
"transformers",
"pytorch",
"roberta",
"text-classification",
"en",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #roberta #text-classification #en #autotrain_compatible #endpoints_compatible #has_space #region-us
|
This RoBERTa-based model ("MindMiner") can classify the degree of mind perception in English language text in 2 classes:
- high mind perception
- low mind perception
The model was fine-tuned on 997 manually annotated open-ended survey responses.
The hold-out accuracy is 75.5% (vs. a balanced 50% random-chance baseline).
Hartmann, J., Bergner, A., & Hildebrand, C. (2023). MindMiner: Uncovering Linguistic Markers of Mind Perception as a New Lens to Understand Consumer-Smart Object Relationships. Journal of Consumer Psychology, Forthcoming.
|
[] |
[
"TAGS\n#transformers #pytorch #roberta #text-classification #en #autotrain_compatible #endpoints_compatible #has_space #region-us \n"
] |
text-classification
|
transformers
|
This RoBERTa-based model can classify *expressed purchase intentions* in English language text in 2 classes:
- purchase intention 🤩
- no purchase intention 😐
The model was fine-tuned on 2,000 manually annotated social media posts.
The hold-out accuracy is 95% (vs. a balanced 50% random-chance baseline).
For details on the training approach see Web Appendix F in Hartmann et al. (2021).
# Application
```python
from transformers import pipeline
classifier = pipeline("text-classification", model="j-hartmann/purchase-intention-english-roberta-large", return_all_scores=True)
classifier("I want this!")
```
```python
Output:
[[{'label': 'no', 'score': 0.0014553926885128021},
{'label': 'yes', 'score': 0.9985445737838745}]]
```
# Reference
Please cite [this paper](https://journals.sagepub.com/doi/full/10.1177/00222437211037258) when you use our model. Feel free to reach out to [jochen.hartmann@tum.de](mailto:jochen.hartmann@tum.de) with any questions or feedback you may have.
```
@article{hartmann2021,
title={The Power of Brand Selfies},
author={Hartmann, Jochen and Heitmann, Mark and Schamp, Christina and Netzer, Oded},
journal={Journal of Marketing Research}
year={2021}
}
```
|
{"language": "en", "tags": ["roberta", "sentiment", "twitter"], "widget": [{"text": "This looks tasty. Where can I buy it??"}, {"text": "Now I want this, too."}, {"text": "You look great today!"}, {"text": "I just love spring and sunshine!"}]}
|
j-hartmann/purchase-intention-english-roberta-large
| null |
[
"transformers",
"pytorch",
"roberta",
"text-classification",
"sentiment",
"twitter",
"en",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #roberta #text-classification #sentiment #twitter #en #autotrain_compatible #endpoints_compatible #region-us
|
This RoBERTa-based model can classify *expressed purchase intentions* in English language text in 2 classes:
- purchase intention
- no purchase intention
The model was fine-tuned on 2,000 manually annotated social media posts.
The hold-out accuracy is 95% (vs. a balanced 50% random-chance baseline).
For details on the training approach see Web Appendix F in Hartmann et al. (2021).
# Application
# Reference
Please cite this paper when you use our model. Feel free to reach out to jochen.hartmann@URL with any questions or feedback you may have.
|
[
"# Application",
"# Reference\nPlease cite this paper when you use our model. Feel free to reach out to jochen.hartmann@URL with any questions or feedback you may have."
] |
[
"TAGS\n#transformers #pytorch #roberta #text-classification #sentiment #twitter #en #autotrain_compatible #endpoints_compatible #region-us \n",
"# Application",
"# Reference\nPlease cite this paper when you use our model. Feel free to reach out to jochen.hartmann@URL with any questions or feedback you may have."
] |
text-classification
|
transformers
|
This RoBERTa-based model can classify the sentiment of English language text in 3 classes:
- positive 😀
- neutral 😐
- negative 🙁
The model was fine-tuned on 5,304 manually annotated social media posts.
The hold-out accuracy is 86.1%.
For details on the training approach see Web Appendix F in Hartmann et al. (2021).
# Application
```python
from transformers import pipeline
classifier = pipeline("text-classification", model="j-hartmann/sentiment-roberta-large-english-3-classes", return_all_scores=True)
classifier("This is so nice!")
```
```python
Output:
[[{'label': 'negative', 'score': 0.00016451838018838316},
{'label': 'neutral', 'score': 0.000174045650055632},
{'label': 'positive', 'score': 0.9996614456176758}]]
```
# Reference
Please cite [this paper](https://journals.sagepub.com/doi/full/10.1177/00222437211037258) when you use our model. Feel free to reach out to [jochen.hartmann@tum.de](mailto:jochen.hartmann@tum.de) with any questions or feedback you may have.
```
@article{hartmann2021,
title={The Power of Brand Selfies},
author={Hartmann, Jochen and Heitmann, Mark and Schamp, Christina and Netzer, Oded},
journal={Journal of Marketing Research}
year={2021}
}
```
|
{"language": "en", "tags": ["roberta", "sentiment", "twitter"], "widget": [{"text": "Oh no. This is bad.."}, {"text": "To be or not to be."}, {"text": "Oh Happy Day"}]}
|
j-hartmann/sentiment-roberta-large-english-3-classes
| null |
[
"transformers",
"pytorch",
"roberta",
"text-classification",
"sentiment",
"twitter",
"en",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #roberta #text-classification #sentiment #twitter #en #autotrain_compatible #endpoints_compatible #has_space #region-us
|
This RoBERTa-based model can classify the sentiment of English language text in 3 classes:
- positive
- neutral
- negative
The model was fine-tuned on 5,304 manually annotated social media posts.
The hold-out accuracy is 86.1%.
For details on the training approach see Web Appendix F in Hartmann et al. (2021).
# Application
# Reference
Please cite this paper when you use our model. Feel free to reach out to jochen.hartmann@URL with any questions or feedback you may have.
|
[
"# Application",
"# Reference\nPlease cite this paper when you use our model. Feel free to reach out to jochen.hartmann@URL with any questions or feedback you may have."
] |
[
"TAGS\n#transformers #pytorch #roberta #text-classification #sentiment #twitter #en #autotrain_compatible #endpoints_compatible #has_space #region-us \n",
"# Application",
"# Reference\nPlease cite this paper when you use our model. Feel free to reach out to jochen.hartmann@URL with any questions or feedback you may have."
] |
null | null |
# dummy file!
|
{}
|
j961224/dummy
| null |
[
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#region-us
|
# dummy file!
|
[
"# dummy file!"
] |
[
"TAGS\n#region-us \n",
"# dummy file!"
] |
text-generation
|
transformers
|
skt/kogpt2-base-v2에 wellness 및 일상챗봇 데이터를 fine-tuning한 모델입니다.
|
{}
|
jack-oh/KoGPT2_finetuned_wellness
| null |
[
"transformers",
"pytorch",
"gpt2",
"text-generation",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #gpt2 #text-generation #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
skt/kogpt2-base-v2에 wellness 및 일상챗봇 데이터를 fine-tuning한 모델입니다.
|
[] |
[
"TAGS\n#transformers #pytorch #gpt2 #text-generation #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n"
] |
fill-mask
|
transformers
|
# SecBERT
This is the pretrained model presented in [SecBERT: A Pretrained Language Model for Cyber Security Text](https://github.com/jackaduma/SecBERT/), which is a BERT model trained on cyber security text.
The training corpus was papers taken from
* [APTnotes](https://github.com/kbandla/APTnotes)
* [Stucco-Data: Cyber security data sources](https://stucco.github.io/data/)
* [CASIE: Extracting Cybersecurity Event Information from Text](https://ebiquity.umbc.edu/_file_directory_/papers/943.pdf)
* [SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP)](https://competitions.codalab.org/competitions/17262).
SecBERT has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus.
We trained [SecBERT](https://huggingface.co/jackaduma/SecBERT) and [SecRoBERTa](https://huggingface.co/jackaduma/SecRoBERTa) versions.
Available models include:
* [`SecBERT`](https://huggingface.co/jackaduma/SecBERT)
* [`SecRoBERTa`](https://huggingface.co/jackaduma/SecRoBERTa)
---
## **Fill Mask**
We proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.
First, as below shows Fill-Mask pipeline in [Google Bert](), [AllenAI SciBert](https://github.com/allenai/scibert) and our [SecBERT](https://github.com/jackaduma/SecBERT) .
<!-- <img src="./fill-mask-result.png" width="150%" height="150%"> -->

---
The original repo can be found [here](https://github.com/jackaduma/SecBERT).
|
{"language": "en", "license": "apache-2.0", "tags": ["exbert", "security", "cybersecurity", "cyber security", "threat hunting", "threat intelligence"], "datasets": ["APTnotes", "Stucco-Data", "CASIE"], "thumbnail": "https://github.com/jackaduma"}
|
jackaduma/SecBERT
| null |
[
"transformers",
"pytorch",
"safetensors",
"bert",
"fill-mask",
"exbert",
"security",
"cybersecurity",
"cyber security",
"threat hunting",
"threat intelligence",
"en",
"dataset:APTnotes",
"dataset:Stucco-Data",
"dataset:CASIE",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #safetensors #bert #fill-mask #exbert #security #cybersecurity #cyber security #threat hunting #threat intelligence #en #dataset-APTnotes #dataset-Stucco-Data #dataset-CASIE #license-apache-2.0 #autotrain_compatible #endpoints_compatible #has_space #region-us
|
# SecBERT
This is the pretrained model presented in SecBERT: A Pretrained Language Model for Cyber Security Text, which is a BERT model trained on cyber security text.
The training corpus was papers taken from
* APTnotes
* Stucco-Data: Cyber security data sources
* CASIE: Extracting Cybersecurity Event Information from Text
* SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP).
SecBERT has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus.
We trained SecBERT and SecRoBERTa versions.
Available models include:
* 'SecBERT'
* 'SecRoBERTa'
---
## Fill Mask
We proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.
First, as below shows Fill-Mask pipeline in [Google Bert](), AllenAI SciBert and our SecBERT .
!fill-mask-result
---
The original repo can be found here.
|
[
"# SecBERT\n\nThis is the pretrained model presented in SecBERT: A Pretrained Language Model for Cyber Security Text, which is a BERT model trained on cyber security text.\n\nThe training corpus was papers taken from \n * APTnotes\n * Stucco-Data: Cyber security data sources\n * CASIE: Extracting Cybersecurity Event Information from Text\n * SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP). \n\nSecBERT has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus. \n\nWe trained SecBERT and SecRoBERTa versions. \n\nAvailable models include:\n* 'SecBERT'\n* 'SecRoBERTa'\n\n---",
"## Fill Mask\n\nWe proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.\n\nFirst, as below shows Fill-Mask pipeline in [Google Bert](), AllenAI SciBert and our SecBERT .\n\n\n\n\n!fill-mask-result\n\n---\n\nThe original repo can be found here."
] |
[
"TAGS\n#transformers #pytorch #safetensors #bert #fill-mask #exbert #security #cybersecurity #cyber security #threat hunting #threat intelligence #en #dataset-APTnotes #dataset-Stucco-Data #dataset-CASIE #license-apache-2.0 #autotrain_compatible #endpoints_compatible #has_space #region-us \n",
"# SecBERT\n\nThis is the pretrained model presented in SecBERT: A Pretrained Language Model for Cyber Security Text, which is a BERT model trained on cyber security text.\n\nThe training corpus was papers taken from \n * APTnotes\n * Stucco-Data: Cyber security data sources\n * CASIE: Extracting Cybersecurity Event Information from Text\n * SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP). \n\nSecBERT has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus. \n\nWe trained SecBERT and SecRoBERTa versions. \n\nAvailable models include:\n* 'SecBERT'\n* 'SecRoBERTa'\n\n---",
"## Fill Mask\n\nWe proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.\n\nFirst, as below shows Fill-Mask pipeline in [Google Bert](), AllenAI SciBert and our SecBERT .\n\n\n\n\n!fill-mask-result\n\n---\n\nThe original repo can be found here."
] |
fill-mask
|
transformers
|
# SecRoBERTa
This is the pretrained model presented in [SecBERT: A Pretrained Language Model for Cyber Security Text](https://github.com/jackaduma/SecBERT/), which is a SecRoBERTa model trained on cyber security text.
The training corpus was papers taken from
* [APTnotes](https://github.com/kbandla/APTnotes)
* [Stucco-Data: Cyber security data sources](https://stucco.github.io/data/)
* [CASIE: Extracting Cybersecurity Event Information from Text](https://ebiquity.umbc.edu/_file_directory_/papers/943.pdf)
* [SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP)](https://competitions.codalab.org/competitions/17262).
SecRoBERTa has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus.
We trained [SecBERT](https://huggingface.co/jackaduma/SecBERT) and [SecRoBERTa](https://huggingface.co/jackaduma/SecRoBERTa) versions.
Available models include:
* [`SecBERT`](https://huggingface.co/jackaduma/SecBERT)
* [`SecRoBERTa`](https://huggingface.co/jackaduma/SecRoBERTa)
---
## **Fill Mask**
We proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.
First, as below shows Fill-Mask pipeline in [Google Bert](), [AllenAI SciBert](https://github.com/allenai/scibert) and our [SecBERT](https://github.com/jackaduma/SecBERT) .
<!-- <img src="./fill-mask-result.png" width="150%" height="150%"> -->

---
The original repo can be found [here](https://github.com/jackaduma/SecBERT).
|
{"language": "en", "license": "apache-2.0", "tags": ["exbert", "security", "cybersecurity", "cyber security", "threat hunting", "threat intelligence"], "datasets": ["APTnotes", "Stucco-Data", "CASIE"], "thumbnail": "https://github.com/jackaduma"}
|
jackaduma/SecRoBERTa
| null |
[
"transformers",
"pytorch",
"safetensors",
"roberta",
"fill-mask",
"exbert",
"security",
"cybersecurity",
"cyber security",
"threat hunting",
"threat intelligence",
"en",
"dataset:APTnotes",
"dataset:Stucco-Data",
"dataset:CASIE",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"has_space",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #safetensors #roberta #fill-mask #exbert #security #cybersecurity #cyber security #threat hunting #threat intelligence #en #dataset-APTnotes #dataset-Stucco-Data #dataset-CASIE #license-apache-2.0 #autotrain_compatible #endpoints_compatible #has_space #region-us
|
# SecRoBERTa
This is the pretrained model presented in SecBERT: A Pretrained Language Model for Cyber Security Text, which is a SecRoBERTa model trained on cyber security text.
The training corpus was papers taken from
* APTnotes
* Stucco-Data: Cyber security data sources
* CASIE: Extracting Cybersecurity Event Information from Text
* SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP).
SecRoBERTa has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus.
We trained SecBERT and SecRoBERTa versions.
Available models include:
* 'SecBERT'
* 'SecRoBERTa'
---
## Fill Mask
We proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.
First, as below shows Fill-Mask pipeline in [Google Bert](), AllenAI SciBert and our SecBERT .
!fill-mask-result
---
The original repo can be found here.
|
[
"# SecRoBERTa\n\nThis is the pretrained model presented in SecBERT: A Pretrained Language Model for Cyber Security Text, which is a SecRoBERTa model trained on cyber security text.\n\nThe training corpus was papers taken from \n * APTnotes\n * Stucco-Data: Cyber security data sources\n * CASIE: Extracting Cybersecurity Event Information from Text\n * SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP). \n\nSecRoBERTa has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus. \n\nWe trained SecBERT and SecRoBERTa versions. \n\nAvailable models include:\n* 'SecBERT'\n* 'SecRoBERTa'\n\n---",
"## Fill Mask\n\nWe proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.\n\nFirst, as below shows Fill-Mask pipeline in [Google Bert](), AllenAI SciBert and our SecBERT .\n\n\n\n\n!fill-mask-result\n---\n\nThe original repo can be found here."
] |
[
"TAGS\n#transformers #pytorch #safetensors #roberta #fill-mask #exbert #security #cybersecurity #cyber security #threat hunting #threat intelligence #en #dataset-APTnotes #dataset-Stucco-Data #dataset-CASIE #license-apache-2.0 #autotrain_compatible #endpoints_compatible #has_space #region-us \n",
"# SecRoBERTa\n\nThis is the pretrained model presented in SecBERT: A Pretrained Language Model for Cyber Security Text, which is a SecRoBERTa model trained on cyber security text.\n\nThe training corpus was papers taken from \n * APTnotes\n * Stucco-Data: Cyber security data sources\n * CASIE: Extracting Cybersecurity Event Information from Text\n * SemEval-2018 Task 8: Semantic Extraction from CybersecUrity REports using Natural Language Processing (SecureNLP). \n\nSecRoBERTa has its own wordpiece vocabulary (secvocab) that's built to best match the training corpus. \n\nWe trained SecBERT and SecRoBERTa versions. \n\nAvailable models include:\n* 'SecBERT'\n* 'SecRoBERTa'\n\n---",
"## Fill Mask\n\nWe proposed to build language model which work on cyber security text, as result, it can improve downstream tasks (NER, Text Classification, Semantic Understand, Q&A) in Cyber Security Domain.\n\nFirst, as below shows Fill-Mask pipeline in [Google Bert](), AllenAI SciBert and our SecBERT .\n\n\n\n\n!fill-mask-result\n---\n\nThe original repo can be found here."
] |
summarization
|
transformers
|
## `bart-large-cnn-samsum`
This model was trained using Amazon SageMaker and the new Hugging Face Deep Learning container.
For more information look at:
- [🤗 Transformers Documentation: Amazon SageMaker](https://huggingface.co/transformers/sagemaker.html)
- [Example Notebooks](https://github.com/huggingface/notebooks/tree/master/sagemaker)
- [Amazon SageMaker documentation for Hugging Face](https://docs.aws.amazon.com/sagemaker/latest/dg/hugging-face.html)
- [Python SDK SageMaker documentation for Hugging Face](https://sagemaker.readthedocs.io/en/stable/frameworks/huggingface/index.html)
- [Deep Learning Container](https://github.com/aws/deep-learning-containers/blob/master/available_images.md#huggingface-training-containers)
## Hyperparameters
{
"dataset_name": "samsum",
"do_eval": true,
"do_predict": true,
"do_train": true,
"fp16": true,
"learning_rate": 5e-05,
"model_name_or_path": "facebook/bart-large-cnn",
"num_train_epochs": 3,
"output_dir": "/opt/ml/model",
"per_device_eval_batch_size": 4,
"per_device_train_batch_size": 4,
"predict_with_generate": true,
"sagemaker_container_log_level": 20,
"sagemaker_job_name": "huggingface-pytorch-training-2021-09-08-06-40-19-182",
"sagemaker_program": "run_summarization.py",
"sagemaker_region": "us-west-2",
"sagemaker_submit_directory": "s3://sagemaker-us-west-2-847380964353/huggingface-pytorch-training-2021-09-08-06-40-19-182/source/sourcedir.tar.gz",
"seed": 7
}
## Usage
from transformers import pipeline
summarizer = pipeline("summarization", model="philschmid/bart-large-cnn-samsum")
conversation = '''Jeff: Can I train a 🤗 Transformers model on Amazon SageMaker?
Philipp: Sure you can use the new Hugging Face Deep Learning Container.
Jeff: ok.
Jeff: and how can I get started?
Jeff: where can I find documentation?
Philipp: ok, ok you can find everything here. https://huggingface.co/blog/the-partnership-amazon-sagemaker-and-hugging-face
'''
nlp(conversation)
## Results
| key | value |
| --- | ----- |
| eval_rouge1 | 42.059 |
| eval_rouge2 | 21.5509 |
| eval_rougeL | 32.4083 |
| eval_rougeLsum | 39.0015 |
| test_rouge1 | 40.8656 |
| test_rouge2 | 20.3517 |
| test_rougeL | 31.2268 |
| test_rougeLsum | 37.9301 |
|
{"language": "en", "license": "apache-2.0", "tags": ["sagemaker", "bart", "summarization"], "datasets": ["samsum"], "widget": [{"text": "Jeff: Can I train a \ud83e\udd17 Transformers model on Amazon SageMaker? \nPhilipp: Sure you can use the new Hugging Face Deep Learning Container. \nJeff: ok.\nJeff: and how can I get started? \nJeff: where can I find documentation? \nPhilipp: ok, ok you can find everything here. https://huggingface.co/blog/the-partnership-amazon-sagemaker-and-hugging-face "}], "model-index": [{"name": "bart-large-cnn-samsum", "results": [{"task": {"type": "abstractive-text-summarization", "name": "Abstractive Text Summarization"}, "dataset": {"name": "SAMSum Corpus: A Human-annotated Dialogue Dataset for Abstractive Summarization", "type": "samsum"}, "metrics": [{"type": "rogue-1", "value": 42.621, "name": "Validation ROGUE-1"}, {"type": "rogue-2", "value": 21.9825, "name": "Validation ROGUE-2"}, {"type": "rogue-l", "value": 33.034, "name": "Validation ROGUE-L"}, {"type": "rogue-1", "value": 41.3174, "name": "Test ROGUE-1"}, {"type": "rogue-2", "value": 20.8716, "name": "Test ROGUE-2"}, {"type": "rogue-l", "value": 32.1337, "name": "Test ROGUE-L"}]}, {"task": {"type": "summarization", "name": "Summarization"}, "dataset": {"name": "samsum", "type": "samsum", "config": "samsum", "split": "test"}, "metrics": [{"type": "rouge", "value": 40.8911, "name": "ROUGE-1", "verified": true}, {"type": "rouge", "value": 20.3551, "name": "ROUGE-2", "verified": true}, {"type": "rouge", "value": 31.2696, "name": "ROUGE-L", "verified": true}, {"type": "rouge", "value": 37.9313, "name": "ROUGE-LSUM", "verified": true}, {"type": "loss", "value": 1.4995627403259277, "name": "loss", "verified": true}, {"type": "gen_len", "value": 60.2247, "name": "gen_len", "verified": true}]}]}]}
|
jackieliu930/bart-large-cnn-samsum
| null |
[
"transformers",
"pytorch",
"bart",
"text2text-generation",
"sagemaker",
"summarization",
"en",
"dataset:samsum",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #bart #text2text-generation #sagemaker #summarization #en #dataset-samsum #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #region-us
|
'bart-large-cnn-samsum'
-----------------------
This model was trained using Amazon SageMaker and the new Hugging Face Deep Learning container.
For more information look at:
* Transformers Documentation: Amazon SageMaker
* Example Notebooks
* Amazon SageMaker documentation for Hugging Face
* Python SDK SageMaker documentation for Hugging Face
* Deep Learning Container
Hyperparameters
---------------
```
{
"dataset_name": "samsum",
"do_eval": true,
"do_predict": true,
"do_train": true,
"fp16": true,
"learning_rate": 5e-05,
"model_name_or_path": "facebook/bart-large-cnn",
"num_train_epochs": 3,
"output_dir": "/opt/ml/model",
"per_device_eval_batch_size": 4,
"per_device_train_batch_size": 4,
"predict_with_generate": true,
"sagemaker_container_log_level": 20,
"sagemaker_job_name": "huggingface-pytorch-training-2021-09-08-06-40-19-182",
"sagemaker_program": "run_summarization.py",
"sagemaker_region": "us-west-2",
"sagemaker_submit_directory": "s3://sagemaker-us-west-2-847380964353/huggingface-pytorch-training-2021-09-08-06-40-19-182/source/URL",
"seed": 7
```
}
Usage
-----
```
from transformers import pipeline
summarizer = pipeline("summarization", model="philschmid/bart-large-cnn-samsum")
conversation = '''Jeff: Can I train a Transformers model on Amazon SageMaker?
Philipp: Sure you can use the new Hugging Face Deep Learning Container.
Jeff: ok.
Jeff: and how can I get started?
Jeff: where can I find documentation?
Philipp: ok, ok you can find everything here. URL
'''
nlp(conversation)
```
Results
-------
|
[] |
[
"TAGS\n#transformers #pytorch #bart #text2text-generation #sagemaker #summarization #en #dataset-samsum #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #region-us \n"
] |
text-generation
|
transformers
|
# Jon Snow DialoGPT Model
|
{"tags": ["conversational"]}
|
jackky46/DialoGPT-medium-got
| null |
[
"transformers",
"pytorch",
"gpt2",
"text-generation",
"conversational",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# Jon Snow DialoGPT Model
|
[
"# Jon Snow DialoGPT Model"
] |
[
"TAGS\n#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# Jon Snow DialoGPT Model"
] |
null | null |
# Model Card
`blenderbot-small-tflite` is a tflite version of `blenderbot-small-90M` I converted for my UTA CSE3310 class. See the repo at [https://github.com/kmosoti/DesparadosAEYE](https://github.com/kmosoti/DesparadosAEYE) and the conversion process [here](https://drive.google.com/file/d/1F93nMsDIm1TWhn70FcLtcaKQUynHq9wS/view?usp=sharing).
You have to right pad your user and model input integers to make them [32,]-shaped. Then indicate te true length with the 3rd and 4th params.
```python
display(interpreter.get_input_details())
display(interpreter.get_output_details())
```
```json
[{'dtype': numpy.int32,
'index': 0,
'name': 'input_tokens',
'quantization': (0.0, 0),
'quantization_parameters': {'quantized_dimension': 0,
'scales': array([], dtype=float32),
'zero_points': array([], dtype=int32)},
'shape': array([32], dtype=int32),
'shape_signature': array([32], dtype=int32),
'sparsity_parameters': {}},
{'dtype': numpy.int32,
'index': 1,
'name': 'decoder_input_tokens',
'quantization': (0.0, 0),
'quantization_parameters': {'quantized_dimension': 0,
'scales': array([], dtype=float32),
'zero_points': array([], dtype=int32)},
'shape': array([32], dtype=int32),
'shape_signature': array([32], dtype=int32),
'sparsity_parameters': {}},
{'dtype': numpy.int32,
'index': 2,
'name': 'input_len',
'quantization': (0.0, 0),
'quantization_parameters': {'quantized_dimension': 0,
'scales': array([], dtype=float32),
'zero_points': array([], dtype=int32)},
'shape': array([], dtype=int32),
'shape_signature': array([], dtype=int32),
'sparsity_parameters': {}},
{'dtype': numpy.int32,
'index': 3,
'name': 'decoder_input_len',
'quantization': (0.0, 0),
'quantization_parameters': {'quantized_dimension': 0,
'scales': array([], dtype=float32),
'zero_points': array([], dtype=int32)},
'shape': array([], dtype=int32),
'shape_signature': array([], dtype=int32),
'sparsity_parameters': {}}]
[{'dtype': numpy.int32,
'index': 3113,
'name': 'Identity',
'quantization': (0.0, 0),
'quantization_parameters': {'quantized_dimension': 0,
'scales': array([], dtype=float32),
'zero_points': array([], dtype=int32)},
'shape': array([1], dtype=int32),
'shape_signature': array([1], dtype=int32),
'sparsity_parameters': {}}]
```
|
{"language": "en", "license": "apache-2.0", "tags": ["Android", "tflite", "blenderbot"]}
|
jacob-valdez/blenderbot-small-tflite
| null |
[
"tflite",
"Android",
"blenderbot",
"en",
"license:apache-2.0",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#tflite #Android #blenderbot #en #license-apache-2.0 #region-us
|
# Model Card
'blenderbot-small-tflite' is a tflite version of 'blenderbot-small-90M' I converted for my UTA CSE3310 class. See the repo at URL and the conversion process here.
You have to right pad your user and model input integers to make them [32,]-shaped. Then indicate te true length with the 3rd and 4th params.
|
[
"# Model Card\n\n'blenderbot-small-tflite' is a tflite version of 'blenderbot-small-90M' I converted for my UTA CSE3310 class. See the repo at URL and the conversion process here.\n\nYou have to right pad your user and model input integers to make them [32,]-shaped. Then indicate te true length with the 3rd and 4th params."
] |
[
"TAGS\n#tflite #Android #blenderbot #en #license-apache-2.0 #region-us \n",
"# Model Card\n\n'blenderbot-small-tflite' is a tflite version of 'blenderbot-small-90M' I converted for my UTA CSE3310 class. See the repo at URL and the conversion process here.\n\nYou have to right pad your user and model input integers to make them [32,]-shaped. Then indicate te true length with the 3rd and 4th params."
] |
text-classification
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# hackMIT-finetuned-sst2
This model is a fine-tuned version of [Blaine-Mason/hackMIT-finetuned-sst2](https://huggingface.co/Blaine-Mason/hackMIT-finetuned-sst2) on the glue dataset.
It achieves the following results on the evaluation set:
- Loss: 1.0046
- Accuracy: 0.7970
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 1.7339491016138283e-05
- train_batch_size: 64
- eval_batch_size: 16
- seed: 23
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|
| 0.0652 | 1.0 | 1053 | 0.9837 | 0.7970 |
| 0.0586 | 2.0 | 2106 | 0.9927 | 0.7959 |
| 0.0549 | 3.0 | 3159 | 1.0046 | 0.7970 |
### Framework versions
- Transformers 4.9.2
- Pytorch 1.9.0+cu102
- Datasets 1.11.0
- Tokenizers 0.10.3
|
{"tags": ["generated_from_trainer"], "datasets": ["glue"], "metrics": ["accuracy"], "model_index": [{"name": "hackMIT-finetuned-sst2", "results": [{"task": {"name": "Text Classification", "type": "text-classification"}, "dataset": {"name": "glue", "type": "glue", "args": "sst2"}, "metric": {"name": "Accuracy", "type": "accuracy", "value": 0.7970183486238532}}]}]}
|
jacobduncan00/hackMIT-finetuned-sst2
| null |
[
"transformers",
"pytorch",
"tensorboard",
"bert",
"text-classification",
"generated_from_trainer",
"dataset:glue",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #tensorboard #bert #text-classification #generated_from_trainer #dataset-glue #autotrain_compatible #endpoints_compatible #region-us
|
hackMIT-finetuned-sst2
======================
This model is a fine-tuned version of Blaine-Mason/hackMIT-finetuned-sst2 on the glue dataset.
It achieves the following results on the evaluation set:
* Loss: 1.0046
* Accuracy: 0.7970
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 1.7339491016138283e-05
* train\_batch\_size: 64
* eval\_batch\_size: 16
* seed: 23
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* num\_epochs: 3
### Training results
### Framework versions
* Transformers 4.9.2
* Pytorch 1.9.0+cu102
* Datasets 1.11.0
* Tokenizers 0.10.3
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 1.7339491016138283e-05\n* train\\_batch\\_size: 64\n* eval\\_batch\\_size: 16\n* seed: 23\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 3",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.9.2\n* Pytorch 1.9.0+cu102\n* Datasets 1.11.0\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #tensorboard #bert #text-classification #generated_from_trainer #dataset-glue #autotrain_compatible #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 1.7339491016138283e-05\n* train\\_batch\\_size: 64\n* eval\\_batch\\_size: 16\n* seed: 23\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 3",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.9.2\n* Pytorch 1.9.0+cu102\n* Datasets 1.11.0\n* Tokenizers 0.10.3"
] |
question-answering
|
transformers
|
# Danish BERT (version 2, uncased) by [BotXO](https://github.com/botxo/nordic_bert) fine-tuned for Question Answering (QA) on the [machine-translated SQuAD-da dataset](https://github.com/ccasimiro88/TranslateAlignRetrieve/tree/multilingual/squads-tar/da)
```python
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained("jacobshein/danish-bert-botxo-qa-squad")
model = AutoModelForQuestionAnswering.from_pretrained("jacobshein/danish-bert-botxo-qa-squad")
```
#### Contact
For further information on usage or fine-tuning procedure, please reach out by email through [jacobhein.com](https://jacobhein.com/#contact).
|
{"language": "da", "license": "cc-by-4.0", "tags": ["danish", "bert", "question answering", "squad", "machine translation", "botxo"], "datasets": ["common_crawl", "wikipedia", "dindebat.dk", "hestenettet.dk", "danish OpenSubtitles"], "widget": [{"context": "Stine sagde hej, men Jacob sagde hall\u00f8j."}]}
|
jacobshein/danish-bert-botxo-qa-squad
| null |
[
"transformers",
"pytorch",
"bert",
"question-answering",
"danish",
"question answering",
"squad",
"machine translation",
"botxo",
"da",
"license:cc-by-4.0",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"da"
] |
TAGS
#transformers #pytorch #bert #question-answering #danish #question answering #squad #machine translation #botxo #da #license-cc-by-4.0 #endpoints_compatible #region-us
|
# Danish BERT (version 2, uncased) by BotXO fine-tuned for Question Answering (QA) on the machine-translated SQuAD-da dataset
#### Contact
For further information on usage or fine-tuning procedure, please reach out by email through URL.
|
[
"# Danish BERT (version 2, uncased) by BotXO fine-tuned for Question Answering (QA) on the machine-translated SQuAD-da dataset",
"#### Contact\n\nFor further information on usage or fine-tuning procedure, please reach out by email through URL."
] |
[
"TAGS\n#transformers #pytorch #bert #question-answering #danish #question answering #squad #machine translation #botxo #da #license-cc-by-4.0 #endpoints_compatible #region-us \n",
"# Danish BERT (version 2, uncased) by BotXO fine-tuned for Question Answering (QA) on the machine-translated SQuAD-da dataset",
"#### Contact\n\nFor further information on usage or fine-tuning procedure, please reach out by email through URL."
] |
text-classification
|
transformers
|
# Usage
```python
# import library
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TextClassificationPipeline
# load model
tokenizer = AutoTokenizer.from_pretrained("jaehyeong/koelectra-base-v3-generalized-sentiment-analysis")
model = AutoModelForSequenceClassification.from_pretrained("jaehyeong/koelectra-base-v3-generalized-sentiment-analysis")
sentiment_classifier = TextClassificationPipeline(tokenizer=tokenizer, model=model)
# target reviews
review_list = [
'이쁘고 좋아요~~~씻기도 편하고 아이고 이쁘다고 자기방에 갖다놓고 잘써요~^^',
'아직 입어보진 않았지만 굉장히 가벼워요~~ 다른 리뷰처럼 어깡이 좀 되네요ㅋ 만족합니다. 엄청 빠른발송 감사드려요 :)',
'재구매 한건데 너무너무 가성비인거 같아요!! 다음에 또 생각나면 3개째 또 살듯..ㅎㅎ',
'가습량이 너무 적어요. 방이 작지 않다면 무조건 큰걸로구매하세요. 물량도 조금밖에 안들어가서 쓰기도 불편함',
'한번입었는데 옆에 봉제선 다 풀리고 실밥도 계속 나옵니다. 마감 처리 너무 엉망 아닌가요?',
'따뜻하고 좋긴한데 배송이 느려요',
'맛은 있는데 가격이 있는 편이에요'
]
# predict
for idx, review in enumerate(review_list):
pred = sentiment_classifier(review)
print(f'{review}\n>> {pred[0]}')
```
```
이쁘고 좋아요~~~씻기도 편하고 아이고 이쁘다고 자기방에 갖다놓고 잘써요~^^
>> {'label': '1', 'score': 0.9945501685142517}
아직 입어보진 않았지만 굉장히 가벼워요~~ 다른 리뷰처럼 어깡이 좀 되네요ㅋ 만족합니다. 엄청 빠른발송 감사드려요 :)
>> {'label': '1', 'score': 0.995430588722229}
재구매 한건데 너무너무 가성비인거 같아요!! 다음에 또 생각나면 3개째 또 살듯..ㅎㅎ
>> {'label': '1', 'score': 0.9959582686424255}
가습량이 너무 적어요. 방이 작지 않다면 무조건 큰걸로구매하세요. 물량도 조금밖에 안들어가서 쓰기도 불편함
>> {'label': '0', 'score': 0.9984619617462158}
한번입었는데 옆에 봉제선 다 풀리고 실밥도 계속 나옵니다. 마감 처리 너무 엉망 아닌가요?
>> {'label': '0', 'score': 0.9991756677627563}
따뜻하고 좋긴한데 배송이 느려요
>> {'label': '1', 'score': 0.6473883390426636}
맛은 있는데 가격이 있는 편이에요
>> {'label': '1', 'score': 0.5128092169761658}
```
- label 0 : negative review
- label 1 : positive review
|
{}
|
Copycats/koelectra-base-v3-generalized-sentiment-analysis
| null |
[
"transformers",
"pytorch",
"safetensors",
"electra",
"text-classification",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #safetensors #electra #text-classification #autotrain_compatible #endpoints_compatible #region-us
|
# Usage
- label 0 : negative review
- label 1 : positive review
|
[
"# Usage\n\n\n- label 0 : negative review\n- label 1 : positive review"
] |
[
"TAGS\n#transformers #pytorch #safetensors #electra #text-classification #autotrain_compatible #endpoints_compatible #region-us \n",
"# Usage\n\n\n- label 0 : negative review\n- label 1 : positive review"
] |
text-classification
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# distilbert-base-uncased-finetuned-cola
This model is a fine-tuned version of [distilbert-base-uncased](https://huggingface.co/distilbert-base-uncased) on the glue dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8815
- Matthews Correlation: 0.5173
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 5
### Training results
| Training Loss | Epoch | Step | Validation Loss | Matthews Correlation |
|:-------------:|:-----:|:----:|:---------------:|:--------------------:|
| 0.5272 | 1.0 | 535 | 0.5099 | 0.4093 |
| 0.3563 | 2.0 | 1070 | 0.5114 | 0.5019 |
| 0.2425 | 3.0 | 1605 | 0.6696 | 0.4898 |
| 0.1726 | 4.0 | 2140 | 0.7715 | 0.5123 |
| 0.132 | 5.0 | 2675 | 0.8815 | 0.5173 |
### Framework versions
- Transformers 4.11.3
- Pytorch 1.9.1
- Datasets 1.14.0
- Tokenizers 0.10.3
|
{"license": "apache-2.0", "tags": ["generated_from_trainer"], "datasets": ["glue"], "metrics": ["matthews_correlation"], "model-index": [{"name": "distilbert-base-uncased-finetuned-cola", "results": [{"task": {"type": "text-classification", "name": "Text Classification"}, "dataset": {"name": "glue", "type": "glue", "args": "cola"}, "metrics": [{"type": "matthews_correlation", "value": 0.51728018358102, "name": "Matthews Correlation"}]}]}]}
|
jaesun/distilbert-base-uncased-finetuned-cola
| null |
[
"transformers",
"pytorch",
"distilbert",
"text-classification",
"generated_from_trainer",
"dataset:glue",
"license:apache-2.0",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #distilbert #text-classification #generated_from_trainer #dataset-glue #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #region-us
|
distilbert-base-uncased-finetuned-cola
======================================
This model is a fine-tuned version of distilbert-base-uncased on the glue dataset.
It achieves the following results on the evaluation set:
* Loss: 0.8815
* Matthews Correlation: 0.5173
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 2e-05
* train\_batch\_size: 16
* eval\_batch\_size: 16
* seed: 42
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* num\_epochs: 5
### Training results
### Framework versions
* Transformers 4.11.3
* Pytorch 1.9.1
* Datasets 1.14.0
* Tokenizers 0.10.3
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 2e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 5",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.1\n* Datasets 1.14.0\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #distilbert #text-classification #generated_from_trainer #dataset-glue #license-apache-2.0 #model-index #autotrain_compatible #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 2e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 5",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.1\n* Datasets 1.14.0\n* Tokenizers 0.10.3"
] |
text-classification
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# kcbert-base-finetuned-nsmc
This model is a fine-tuned version of [beomi/kcbert-base](https://huggingface.co/beomi/kcbert-base) on the nsmc dataset.
It achieves the following results on the evaluation set:
- Loss: 0.4197
- Accuracy: 0.9020
- F1: 0.9033
- Recall: 0.9095
- Precision: 0.8972
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy | F1 | Recall | Precision |
|:-------------:|:-----:|:-----:|:---------------:|:--------:|:------:|:------:|:---------:|
| 0.3028 | 0.32 | 3000 | 0.2994 | 0.8769 | 0.8732 | 0.8422 | 0.9066 |
| 0.2833 | 0.64 | 6000 | 0.2766 | 0.8880 | 0.8844 | 0.8512 | 0.9203 |
| 0.2719 | 0.96 | 9000 | 0.2527 | 0.8980 | 0.8981 | 0.8933 | 0.9030 |
| 0.1938 | 1.28 | 12000 | 0.2934 | 0.8969 | 0.8965 | 0.8869 | 0.9062 |
| 0.1907 | 1.6 | 15000 | 0.3141 | 0.8992 | 0.8999 | 0.9003 | 0.8996 |
| 0.1824 | 1.92 | 18000 | 0.3537 | 0.8986 | 0.8964 | 0.8711 | 0.9232 |
| 0.1261 | 2.24 | 21000 | 0.4197 | 0.9020 | 0.9033 | 0.9095 | 0.8972 |
| 0.1237 | 2.56 | 24000 | 0.4170 | 0.8995 | 0.9017 | 0.9156 | 0.8882 |
| 0.1182 | 2.88 | 27000 | 0.4165 | 0.9020 | 0.9036 | 0.9130 | 0.8945 |
### Framework versions
- Transformers 4.11.3
- Pytorch 1.9.1
- Datasets 1.14.0
- Tokenizers 0.10.3
|
{"tags": ["generated_from_trainer"], "datasets": ["nsmc"], "metrics": ["accuracy", "f1", "recall", "precision"], "model-index": [{"name": "kcbert-base-finetuned-nsmc", "results": [{"task": {"type": "text-classification", "name": "Text Classification"}, "dataset": {"name": "nsmc", "type": "nsmc", "args": "default"}, "metrics": [{"type": "accuracy", "value": 0.90198, "name": "Accuracy"}, {"type": "f1", "value": 0.9033161705233671, "name": "F1"}, {"type": "recall", "value": 0.9095062169785088, "name": "Recall"}, {"type": "precision", "value": 0.8972098126812446, "name": "Precision"}]}]}]}
|
jaesun/kcbert-base-finetuned-nsmc
| null |
[
"transformers",
"pytorch",
"bert",
"text-classification",
"generated_from_trainer",
"dataset:nsmc",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-nsmc #model-index #autotrain_compatible #endpoints_compatible #region-us
|
kcbert-base-finetuned-nsmc
==========================
This model is a fine-tuned version of beomi/kcbert-base on the nsmc dataset.
It achieves the following results on the evaluation set:
* Loss: 0.4197
* Accuracy: 0.9020
* F1: 0.9033
* Recall: 0.9095
* Precision: 0.8972
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 2e-05
* train\_batch\_size: 16
* eval\_batch\_size: 16
* seed: 42
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* num\_epochs: 3
* mixed\_precision\_training: Native AMP
### Training results
### Framework versions
* Transformers 4.11.3
* Pytorch 1.9.1
* Datasets 1.14.0
* Tokenizers 0.10.3
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 2e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 3\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.1\n* Datasets 1.14.0\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-nsmc #model-index #autotrain_compatible #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 2e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 42\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 3\n* mixed\\_precision\\_training: Native AMP",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.1\n* Datasets 1.14.0\n* Tokenizers 0.10.3"
] |
text-generation
|
transformers
|
# FF8 DialoGPT Model
|
{"tags": ["conversational"]}
|
jahz/DialoGPT-medium-FF8
| null |
[
"transformers",
"pytorch",
"gpt2",
"text-generation",
"conversational",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# FF8 DialoGPT Model
|
[
"# FF8 DialoGPT Model"
] |
[
"TAGS\n#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# FF8 DialoGPT Model"
] |
feature-extraction
|
transformers
|
tokenizer = AutoTokenizer.from_pretrained("jaimin/Gujarati-Model")
model = AutoModel.from_pretrained("jaimin/Gujarati-Model")
|
{}
|
jaimin/Gujarati-Model
| null |
[
"transformers",
"pytorch",
"roberta",
"feature-extraction",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #roberta #feature-extraction #endpoints_compatible #region-us
|
tokenizer = AutoTokenizer.from_pretrained("jaimin/Gujarati-Model")
model = AutoModel.from_pretrained("jaimin/Gujarati-Model")
|
[] |
[
"TAGS\n#transformers #pytorch #roberta #feature-extraction #endpoints_compatible #region-us \n"
] |
text-classification
|
transformers
|
"hello"
|
{}
|
jaimin/plagiarism_checker
| null |
[
"transformers",
"pytorch",
"longformer",
"text-classification",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #longformer #text-classification #autotrain_compatible #endpoints_compatible #region-us
|
"hello"
|
[] |
[
"TAGS\n#transformers #pytorch #longformer #text-classification #autotrain_compatible #endpoints_compatible #region-us \n"
] |
automatic-speech-recognition
|
transformers
|
# wav2vec2-base-gujarati-demo
Fine-tuned [facebook/wav2vec2-large-xlsr-53](https://huggingface.co/facebook/wav2vec2-large-xlsr-53) in Guj
When using this model, make sure that your speech input is sampled at 16kHz.
## Usage
The model can be used directly (without a language model) as follows:
```python
import torch
import torchaudio
from datasets import load_dataset
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
common_voice_train,common_voice_test = load_dataset('csv', data_files={'train': 'train.csv','test': 'test.csv'},error_bad_lines=False,encoding='utf-8',split=['train', 'test']).
processor = Wav2Vec2Processor.from_pretrained("jaimin/wav2vec2-base-gujarati-demo")
model = Wav2Vec2ForCTC.from_pretrained("jaimin/wav2vec2-base-gujarati-demo")
resampler = torchaudio.transforms.Resample(48_000, 16_000)
# Preprocessing the datasets.
# We need to read the aduio files as arrays
def speech_file_to_array_fn(batch):
speech_array, sampling_rate = torchaudio.load(batch["path"])
batch["speech"] = resampler(speech_array).squeeze().numpy()
return batch
test_dataset = common_voice_test.map(speech_file_to_array_fn)
inputs = processor(test_dataset["speech"], sampling_rate=16_000, return_tensors="pt", padding=True)
with torch.no_grad():
logits = model(inputs.input_values).logits
predicted_ids = torch.argmax(logits, dim=-1)
print("Prediction:", processor.batch_decode(predicted_ids))
print("Reference:", test_dataset["sentence"][0].lower())
```
## Evaluation
The model can be evaluated as follows on the {language} test data of Common Voice.
```python
import torch
import torchaudio
from datasets import load_dataset, load_metric
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
import re
common_voice_validation = load_dataset('csv', data_files={'test': 'validation.csv'},error_bad_lines=False,encoding='utf-8',split='test')
wer = load_metric("wer")
processor = Wav2Vec2Processor.from_pretrained("jaimin/wav2vec2-base-gujarati-demo")
model = Wav2Vec2ForCTC.from_pretrained("Amrrs/wav2vec2-base-gujarati-demo")
model.to("cuda")
chars_to_ignore_regex = '[\,\?\.\!\-\;\:\"\“]'
resampler = torchaudio.transforms.Resample(48_000, 16_000)
# Preprocessing the datasets.
# We need to read the aduio files as arrays
def speech_file_to_array_fn(batch):
batch["sentence"] = re.sub(chars_to_ignore_regex, '', batch["sentence"]).lower()
speech_array, sampling_rate = torchaudio.load(batch["path"])
batch["speech"] = resampler(speech_array).squeeze().numpy()
return batch
test_dataset = common_voice_validation.map(speech_file_to_array_fn)
# Preprocessing the datasets.
# We need to read the aduio files as arrays
def evaluate(batch):
inputs = processor(batch["speech"], sampling_rate=16000, return_tensors="pt", padding=True)
with torch.no_grad():
logits = model(inputs.input_values.to("cuda")).logits
pred_ids = torch.argmax(logits, dim=-1)
batch["pred_strings"] = processor.batch_decode(pred_ids)
return batch
result = common_voice_validation.map(evaluate, batched=True, batch_size=8)
print("WER: {:2f}".format(100 * wer.compute(predictions=result["pred_strings"], references=result["sentence"])))
```
**Test Result**: 28.92 %
## Training
The Google datasets were used for training.
The script used for training can be found [here](https://colab.research.google.com/drive/1-Klkgr4f-C9SanHfVC5RhP0ELUH6TYlN?usp=sharing)
|
{"language": "Guj", "license": "apache-2.0", "tags": ["audio", "automatic-speech-recognition", "speech", "xlsr-fine-tuning-week"], "datasets": ["google"], "model-index": [{"name": "XLSR Wav2Vec2 Guj by Jaimin", "results": [{"task": {"type": "automatic-speech-recognition", "name": "Speech Recognition"}, "dataset": {"name": "Google", "type": "voice", "args": "guj"}, "metrics": [{"type": "wer", "value": 28.92, "name": "Test WER"}]}]}]}
|
jaimin/wav2vec2-base-gujarati-demo
| null |
[
"transformers",
"pytorch",
"jax",
"wav2vec2",
"automatic-speech-recognition",
"audio",
"speech",
"xlsr-fine-tuning-week",
"dataset:google",
"license:apache-2.0",
"model-index",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"Guj"
] |
TAGS
#transformers #pytorch #jax #wav2vec2 #automatic-speech-recognition #audio #speech #xlsr-fine-tuning-week #dataset-google #license-apache-2.0 #model-index #endpoints_compatible #region-us
|
# wav2vec2-base-gujarati-demo
Fine-tuned facebook/wav2vec2-large-xlsr-53 in Guj
When using this model, make sure that your speech input is sampled at 16kHz.
## Usage
The model can be used directly (without a language model) as follows:
## Evaluation
The model can be evaluated as follows on the {language} test data of Common Voice.
Test Result: 28.92 %
## Training
The Google datasets were used for training.
The script used for training can be found here
|
[
"# wav2vec2-base-gujarati-demo\n\nFine-tuned facebook/wav2vec2-large-xlsr-53 in Guj\nWhen using this model, make sure that your speech input is sampled at 16kHz.",
"## Usage\n\nThe model can be used directly (without a language model) as follows:",
"## Evaluation\n\nThe model can be evaluated as follows on the {language} test data of Common Voice.\n\n\n\n\nTest Result: 28.92 %",
"## Training\n\nThe Google datasets were used for training.\n\nThe script used for training can be found here"
] |
[
"TAGS\n#transformers #pytorch #jax #wav2vec2 #automatic-speech-recognition #audio #speech #xlsr-fine-tuning-week #dataset-google #license-apache-2.0 #model-index #endpoints_compatible #region-us \n",
"# wav2vec2-base-gujarati-demo\n\nFine-tuned facebook/wav2vec2-large-xlsr-53 in Guj\nWhen using this model, make sure that your speech input is sampled at 16kHz.",
"## Usage\n\nThe model can be used directly (without a language model) as follows:",
"## Evaluation\n\nThe model can be evaluated as follows on the {language} test data of Common Voice.\n\n\n\n\nTest Result: 28.92 %",
"## Training\n\nThe Google datasets were used for training.\n\nThe script used for training can be found here"
] |
text-classification
|
transformers
|
# CoronaCentral BERT Model for Topic / Article Type Classification
This is the topic / article type multi-label classification for the [CoronaCentral website](https://coronacentral.ai). This forms part of the pipeline for downloading and processing coronavirus literature described in the [corona-ml repo](https://github.com/jakelever/corona-ml) with available [step-by-step descriptions](https://github.com/jakelever/corona-ml/blob/master/stepByStep.md). The method is described in the [preprint](https://doi.org/10.1101/2020.12.21.423860) and detailed performance results can be found in the [machine learning details](https://github.com/jakelever/corona-ml/blob/master/machineLearningDetails.md) document.
This model was derived by fine-tuning the [microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract](https://huggingface.co/microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract) model on this coronavirus sequence (document) classification task.
## Usage
Below are two Google Colab notebooks with example usage of this sequence classification model using HuggingFace transformers and KTrain.
- [HuggingFace example on Google Colab](https://colab.research.google.com/drive/1cBNgKd4o6FNWwjKXXQQsC_SaX1kOXDa4?usp=sharing)
- [KTrain example on Google Colab](https://colab.research.google.com/drive/1h7oJa2NDjnBEoox0D5vwXrxiCHj3B1kU?usp=sharing)
## Training Data
The model is trained on ~3200 manually-curated articles sampled at various stages during the coronavirus pandemic. The code for training is available in the [category\_prediction](https://github.com/jakelever/corona-ml/tree/master/category_prediction) directory of the main Github Repo. The data is available in the [annotated_documents.json.gz](https://github.com/jakelever/corona-ml/blob/master/category_prediction/annotated_documents.json.gz) file.
## Inputs and Outputs
The model takes in a tokenized title and abstract (combined into a single string and separated by a new line). The outputs are topics and article types, broadly called categories in the pipeline code. The types are listed below. Some others are managed by hand-coded rules described in the [step-by-step descriptions](https://github.com/jakelever/corona-ml/blob/master/stepByStep.md).
### List of Article Types
- Comment/Editorial
- Meta-analysis
- News
- Review
### List of Topics
- Clinical Reports
- Communication
- Contact Tracing
- Diagnostics
- Drug Targets
- Education
- Effect on Medical Specialties
- Forecasting & Modelling
- Health Policy
- Healthcare Workers
- Imaging
- Immunology
- Inequality
- Infection Reports
- Long Haul
- Medical Devices
- Misinformation
- Model Systems & Tools
- Molecular Biology
- Non-human
- Non-medical
- Pediatrics
- Prevalence
- Prevention
- Psychology
- Recommendations
- Risk Factors
- Surveillance
- Therapeutics
- Transmission
- Vaccines
|
{"language": "en", "license": "mit", "tags": ["coronavirus", "covid", "bionlp"], "datasets": ["cord19", "pubmed"], "thumbnail": "https://coronacentral.ai/logo-with-name.png?1", "widget": [{"text": "Pre-existing T-cell immunity to SARS-CoV-2 in unexposed healthy controls in Ecuador, as detected with a COVID-19 Interferon-Gamma Release Assay."}, {"text": "Lifestyle and mental health disruptions during COVID-19."}, {"text": "More than 50 Long-term effects of COVID-19: a systematic review and meta-analysis"}]}
|
jakelever/coronabert
| null |
[
"transformers",
"pytorch",
"tf",
"jax",
"bert",
"text-classification",
"coronavirus",
"covid",
"bionlp",
"en",
"dataset:cord19",
"dataset:pubmed",
"license:mit",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"en"
] |
TAGS
#transformers #pytorch #tf #jax #bert #text-classification #coronavirus #covid #bionlp #en #dataset-cord19 #dataset-pubmed #license-mit #autotrain_compatible #endpoints_compatible #region-us
|
# CoronaCentral BERT Model for Topic / Article Type Classification
This is the topic / article type multi-label classification for the CoronaCentral website. This forms part of the pipeline for downloading and processing coronavirus literature described in the corona-ml repo with available step-by-step descriptions. The method is described in the preprint and detailed performance results can be found in the machine learning details document.
This model was derived by fine-tuning the microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract model on this coronavirus sequence (document) classification task.
## Usage
Below are two Google Colab notebooks with example usage of this sequence classification model using HuggingFace transformers and KTrain.
- HuggingFace example on Google Colab
- KTrain example on Google Colab
## Training Data
The model is trained on ~3200 manually-curated articles sampled at various stages during the coronavirus pandemic. The code for training is available in the category\_prediction directory of the main Github Repo. The data is available in the annotated_documents.URL file.
## Inputs and Outputs
The model takes in a tokenized title and abstract (combined into a single string and separated by a new line). The outputs are topics and article types, broadly called categories in the pipeline code. The types are listed below. Some others are managed by hand-coded rules described in the step-by-step descriptions.
### List of Article Types
- Comment/Editorial
- Meta-analysis
- News
- Review
### List of Topics
- Clinical Reports
- Communication
- Contact Tracing
- Diagnostics
- Drug Targets
- Education
- Effect on Medical Specialties
- Forecasting & Modelling
- Health Policy
- Healthcare Workers
- Imaging
- Immunology
- Inequality
- Infection Reports
- Long Haul
- Medical Devices
- Misinformation
- Model Systems & Tools
- Molecular Biology
- Non-human
- Non-medical
- Pediatrics
- Prevalence
- Prevention
- Psychology
- Recommendations
- Risk Factors
- Surveillance
- Therapeutics
- Transmission
- Vaccines
|
[
"# CoronaCentral BERT Model for Topic / Article Type Classification\n\nThis is the topic / article type multi-label classification for the CoronaCentral website. This forms part of the pipeline for downloading and processing coronavirus literature described in the corona-ml repo with available step-by-step descriptions. The method is described in the preprint and detailed performance results can be found in the machine learning details document.\n\nThis model was derived by fine-tuning the microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract model on this coronavirus sequence (document) classification task.",
"## Usage\n\nBelow are two Google Colab notebooks with example usage of this sequence classification model using HuggingFace transformers and KTrain.\n\n- HuggingFace example on Google Colab\n- KTrain example on Google Colab",
"## Training Data\n\nThe model is trained on ~3200 manually-curated articles sampled at various stages during the coronavirus pandemic. The code for training is available in the category\\_prediction directory of the main Github Repo. The data is available in the annotated_documents.URL file.",
"## Inputs and Outputs\n\nThe model takes in a tokenized title and abstract (combined into a single string and separated by a new line). The outputs are topics and article types, broadly called categories in the pipeline code. The types are listed below. Some others are managed by hand-coded rules described in the step-by-step descriptions.",
"### List of Article Types \n\n- Comment/Editorial\n- Meta-analysis\n- News\n- Review",
"### List of Topics\n\n- Clinical Reports\n- Communication\n- Contact Tracing\n- Diagnostics\n- Drug Targets\n- Education\n- Effect on Medical Specialties\n- Forecasting & Modelling\n- Health Policy\n- Healthcare Workers\n- Imaging\n- Immunology\n- Inequality\n- Infection Reports\n- Long Haul\n- Medical Devices\n- Misinformation\n- Model Systems & Tools\n- Molecular Biology\n- Non-human\n- Non-medical\n- Pediatrics\n- Prevalence\n- Prevention\n- Psychology\n- Recommendations\n- Risk Factors\n- Surveillance\n- Therapeutics\n- Transmission\n- Vaccines"
] |
[
"TAGS\n#transformers #pytorch #tf #jax #bert #text-classification #coronavirus #covid #bionlp #en #dataset-cord19 #dataset-pubmed #license-mit #autotrain_compatible #endpoints_compatible #region-us \n",
"# CoronaCentral BERT Model for Topic / Article Type Classification\n\nThis is the topic / article type multi-label classification for the CoronaCentral website. This forms part of the pipeline for downloading and processing coronavirus literature described in the corona-ml repo with available step-by-step descriptions. The method is described in the preprint and detailed performance results can be found in the machine learning details document.\n\nThis model was derived by fine-tuning the microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract model on this coronavirus sequence (document) classification task.",
"## Usage\n\nBelow are two Google Colab notebooks with example usage of this sequence classification model using HuggingFace transformers and KTrain.\n\n- HuggingFace example on Google Colab\n- KTrain example on Google Colab",
"## Training Data\n\nThe model is trained on ~3200 manually-curated articles sampled at various stages during the coronavirus pandemic. The code for training is available in the category\\_prediction directory of the main Github Repo. The data is available in the annotated_documents.URL file.",
"## Inputs and Outputs\n\nThe model takes in a tokenized title and abstract (combined into a single string and separated by a new line). The outputs are topics and article types, broadly called categories in the pipeline code. The types are listed below. Some others are managed by hand-coded rules described in the step-by-step descriptions.",
"### List of Article Types \n\n- Comment/Editorial\n- Meta-analysis\n- News\n- Review",
"### List of Topics\n\n- Clinical Reports\n- Communication\n- Contact Tracing\n- Diagnostics\n- Drug Targets\n- Education\n- Effect on Medical Specialties\n- Forecasting & Modelling\n- Health Policy\n- Healthcare Workers\n- Imaging\n- Immunology\n- Inequality\n- Infection Reports\n- Long Haul\n- Medical Devices\n- Misinformation\n- Model Systems & Tools\n- Molecular Biology\n- Non-human\n- Non-medical\n- Pediatrics\n- Prevalence\n- Prevention\n- Psychology\n- Recommendations\n- Risk Factors\n- Surveillance\n- Therapeutics\n- Transmission\n- Vaccines"
] |
text-to-speech
|
transformers
|
# HiFi-GAN
[HiFi-GAN](https://arxiv.org/abs/2010.05646) vocoder trained on the [LJ Speech dataset](https://keithito.com/LJ-Speech-Dataset/). The modeling code is based on the [official implementation](https://github.com/jik876/hifi-gan) and the [fairseq adaptation](https://github.com/pytorch/fairseq).
## Usage
```python
from transformers import AutoModel
model = AutoModel.from_pretrained("jaketae/hifigan-lj-v1", trust_remote_code=True)
```
|
{"language": "en", "tags": ["audio", "text-to-speech"], "datasets": ["ljspeech"]}
|
jaketae/hifigan-lj-v1
| null |
[
"transformers",
"pytorch",
"hifigan",
"feature-extraction",
"audio",
"text-to-speech",
"custom_code",
"en",
"dataset:ljspeech",
"arxiv:2010.05646",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[
"2010.05646"
] |
[
"en"
] |
TAGS
#transformers #pytorch #hifigan #feature-extraction #audio #text-to-speech #custom_code #en #dataset-ljspeech #arxiv-2010.05646 #region-us
|
# HiFi-GAN
HiFi-GAN vocoder trained on the LJ Speech dataset. The modeling code is based on the official implementation and the fairseq adaptation.
## Usage
|
[
"# HiFi-GAN\n\nHiFi-GAN vocoder trained on the LJ Speech dataset. The modeling code is based on the official implementation and the fairseq adaptation.",
"## Usage"
] |
[
"TAGS\n#transformers #pytorch #hifigan #feature-extraction #audio #text-to-speech #custom_code #en #dataset-ljspeech #arxiv-2010.05646 #region-us \n",
"# HiFi-GAN\n\nHiFi-GAN vocoder trained on the LJ Speech dataset. The modeling code is based on the official implementation and the fairseq adaptation.",
"## Usage"
] |
question-answering
|
transformers
|
XLM-RoBERTa base (`xlm-roberta-base`) finetuned on squad v1.1.
**Training-specifications:**
- training_epochs: 3.0
- max_seq_length: 384
- batch_size: 16
- dataset_name: squad
- doc_stride 128
**Train-results:**
```
{
"epoch": 3.0,
"init_mem_cpu_alloc_delta": 991453184,
"init_mem_cpu_peaked_delta": 0,
"init_mem_gpu_alloc_delta": 1109893120,
"init_mem_gpu_peaked_delta": 0,
"train_mem_cpu_alloc_delta": 14753792,
"train_mem_cpu_peaked_delta": 0,
"train_mem_gpu_alloc_delta": 3330195456,
"train_mem_gpu_peaked_delta": 8287144960,
"train_runtime": 11376.3034,
"train_samples": 89597,
"train_samples_per_second": 1.477
}
```
**Eval-results:**
```
{
"epoch": 3.0,
"eval_samples": 10918,
"exact_match": 82.06244087038789,
"f1": 89.09539709124654
}
```
|
{}
|
jakobwes/xlm_roberta_squad_v1.1
| null |
[
"transformers",
"pytorch",
"xlm-roberta",
"question-answering",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #xlm-roberta #question-answering #endpoints_compatible #region-us
|
XLM-RoBERTa base ('xlm-roberta-base') finetuned on squad v1.1.
Training-specifications:
- training_epochs: 3.0
- max_seq_length: 384
- batch_size: 16
- dataset_name: squad
- doc_stride 128
Train-results:
Eval-results:
|
[] |
[
"TAGS\n#transformers #pytorch #xlm-roberta #question-answering #endpoints_compatible #region-us \n"
] |
text-generation
|
transformers
|
# jalenbot DialoGPT Model
|
{"tags": ["conversational"]}
|
jalensmh/DialoGPT-medium-jalenbot
| null |
[
"transformers",
"pytorch",
"gpt2",
"text-generation",
"conversational",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# jalenbot DialoGPT Model
|
[
"# jalenbot DialoGPT Model"
] |
[
"TAGS\n#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# jalenbot DialoGPT Model"
] |
text-generation
|
transformers
|
# exophoria DialoGPT Model
|
{"tags": ["conversational"]}
|
jalensmh/DialoGPT-small-exophoria
| null |
[
"transformers",
"pytorch",
"gpt2",
"text-generation",
"conversational",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# exophoria DialoGPT Model
|
[
"# exophoria DialoGPT Model"
] |
[
"TAGS\n#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# exophoria DialoGPT Model"
] |
question-answering
|
transformers
|
This is the [BSC-TeMU/roberta-base-bne](https://huggingface.co/BSC-TeMU/roberta-base-bne) model ([source](https://github.com/PlanTL-SANIDAD/lm-spanish)) trained on the [squad_es v2.0.0](https://huggingface.co/datasets/squad_es) dataset ([source](https://github.com/ccasimiro88/TranslateAlignRetrieve)).
Current achievement: em=58.80, f1=67.40
Results:
```
{
"epoch": 4.0,
"eval_HasAns_exact": 48.51551956815115,
"eval_HasAns_f1": 65.70745010262016,
"eval_HasAns_total": 5928,
"eval_NoAns_exact": 69.0893760539629,
"eval_NoAns_f1": 69.0893760539629,
"eval_NoAns_total": 5930,
"eval_best_exact": 58.804182830156854,
"eval_best_exact_thresh": 0.0,
"eval_best_f1": 67.39869828034618,
"eval_best_f1_thresh": 0.0,
"eval_exact": 58.804182830156854,
"eval_f1": 67.39869828034568,
"eval_samples": 12211,
"eval_total": 11858
}
```
Training script:
```
python -m torch.distributed.launch --nproc_per_node=3 ./run_qa.py \
--model_name_or_path BSC-TeMU/roberta-base-bne \
--dataset_name squad_es \
--dataset_config_name v2.0.0 \
--do_train \
--do_eval \
--learning_rate 3e-5 \
--num_train_epochs 4 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./models/roberta-base-bne-squad-2.0-es/ \
--per_device_eval_batch_size=8 \
--per_device_train_batch_size=8 \
--version_2_with_negative \
--ddp_find_unused_parameters=False \
--overwrite_output_dir \
```
|
{"language": ["es"], "datasets": ["squad_es"], "widget": [{"text": "\u00bfQui\u00e9n era el duque en la batalla de Hastings?", "context": "La dinast\u00eda normanda tuvo un gran impacto pol\u00edtico, cultural y militar en la Europa medieval e incluso en el Cercano Oriente. Los normandos eran famosos por su esp\u00edritu marcial y, finalmente, por su piedad cristiana, convirti\u00e9ndose en exponentes de la ortodoxia cat\u00f3lica en la que se asimilaron. Adoptaron la lengua galorromance de la tierra franca que establecieron, siendo su dialecto conocido como franc\u00e9s normando, normando o normando, una lengua literaria importante. El ducado de Normand\u00eda, que formaron por tratado con la corona francesa, fue un gran feudo de la Francia medieval, y bajo Ricardo I de Normand\u00eda se forj\u00f3 en un principado cohesionado y formidable en la tenencia feudal. Los normandos se caracterizan tanto por su cultura, como por su singular arquitectura rom\u00e1nica y sus tradiciones musicales, y por sus importantes logros e innovaciones militares. Aventureros normandos fundaron el Reino de Sicilia bajo Roger II despu\u00e9s de conquistar el sur de Italia con los sarracenos y bizantinos, y una expedici\u00f3n en nombre de su duque, Guillermo el Conquistador, condujo a la conquista normanda de Inglaterra. La influencia cultural y militar normanda se extendi\u00f3 desde estos nuevos centros europeos a los estados cruzados del Cercano Oriente, donde su pr\u00edncipe Bohemundo I fund\u00f3 el Principado de Antioqu\u00eda en el Levante mediterr\u00e1neo, a Escocia y Gales en Gran Breta\u00f1a."}]}
|
jamarju/roberta-base-bne-squad-2.0-es
| null |
[
"transformers",
"pytorch",
"roberta",
"question-answering",
"es",
"dataset:squad_es",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"es"
] |
TAGS
#transformers #pytorch #roberta #question-answering #es #dataset-squad_es #endpoints_compatible #region-us
|
This is the BSC-TeMU/roberta-base-bne model (source) trained on the squad_es v2.0.0 dataset (source).
Current achievement: em=58.80, f1=67.40
Results:
Training script:
|
[] |
[
"TAGS\n#transformers #pytorch #roberta #question-answering #es #dataset-squad_es #endpoints_compatible #region-us \n"
] |
question-answering
|
transformers
|
This is the [BSC-TeMU/roberta-large-bne](https://huggingface.co/BSC-TeMU/roberta-large-bne) model ([source](https://github.com/PlanTL-SANIDAD/lm-spanish)) trained on the [squad_es v2.0.0](https://huggingface.co/datasets/squad_es) dataset ([source](https://github.com/ccasimiro88/TranslateAlignRetrieve)).
Current achievement: em=60.21, f1=68.61
Results:
```
{
"epoch": 4.0,
"eval_HasAns_exact": 48.44804318488529,
"eval_HasAns_f1": 65.24520506718169,
"eval_HasAns_total": 5928,
"eval_NoAns_exact": 71.97301854974705,
"eval_NoAns_f1": 71.97301854974705,
"eval_NoAns_total": 5930,
"eval_best_exact": 60.22094788328555,
"eval_best_exact_thresh": 0.0,
"eval_best_f1": 68.6181122987237,
"eval_best_f1_thresh": 0.0,
"eval_exact": 60.2125147579693,
"eval_f1": 68.60967917340695,
"eval_samples": 12203,
"eval_total": 11858
}
```
Training script:
```
python -m torch.distributed.launch --nproc_per_node=3 ./run_qa.py \
--model_name_or_path BSC-TeMU/roberta-large-bne \
--dataset_name squad_es \
--dataset_config_name v2.0.0 \
--do_train \
--do_eval \
--learning_rate 3e-5 \
--num_train_epochs 4 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./models/roberta-large-bne-finetuned-squad-es/ \
--per_device_eval_batch_size=24 \
--per_device_train_batch_size=12 \
--version_2_with_negative \
--ddp_find_unused_parameters=False \
```
|
{"language": ["es"], "datasets": ["squad_es"], "widget": [{"text": "\u00bfQui\u00e9n era el duque en la batalla de Hastings?", "context": "La dinast\u00eda normanda tuvo un gran impacto pol\u00edtico, cultural y militar en la Europa medieval e incluso en el Cercano Oriente. Los normandos eran famosos por su esp\u00edritu marcial y, finalmente, por su piedad cristiana, convirti\u00e9ndose en exponentes de la ortodoxia cat\u00f3lica en la que se asimilaron. Adoptaron la lengua galorromance de la tierra franca que establecieron, siendo su dialecto conocido como franc\u00e9s normando, normando o normando, una lengua literaria importante. El ducado de Normand\u00eda, que formaron por tratado con la corona francesa, fue un gran feudo de la Francia medieval, y bajo Ricardo I de Normand\u00eda se forj\u00f3 en un principado cohesionado y formidable en la tenencia feudal. Los normandos se caracterizan tanto por su cultura, como por su singular arquitectura rom\u00e1nica y sus tradiciones musicales, y por sus importantes logros e innovaciones militares. Aventureros normandos fundaron el Reino de Sicilia bajo Roger II despu\u00e9s de conquistar el sur de Italia con los sarracenos y bizantinos, y una expedici\u00f3n en nombre de su duque, Guillermo el Conquistador, condujo a la conquista normanda de Inglaterra. La influencia cultural y militar normanda se extendi\u00f3 desde estos nuevos centros europeos a los estados cruzados del Cercano Oriente, donde su pr\u00edncipe Bohemundo I fund\u00f3 el Principado de Antioqu\u00eda en el Levante mediterr\u00e1neo, a Escocia y Gales en Gran Breta\u00f1a."}]}
|
jamarju/roberta-large-bne-squad-2.0-es
| null |
[
"transformers",
"pytorch",
"roberta",
"question-answering",
"es",
"dataset:squad_es",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"es"
] |
TAGS
#transformers #pytorch #roberta #question-answering #es #dataset-squad_es #endpoints_compatible #region-us
|
This is the BSC-TeMU/roberta-large-bne model (source) trained on the squad_es v2.0.0 dataset (source).
Current achievement: em=60.21, f1=68.61
Results:
Training script:
|
[] |
[
"TAGS\n#transformers #pytorch #roberta #question-answering #es #dataset-squad_es #endpoints_compatible #region-us \n"
] |
text-classification
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# marker-associations-binary-base
This model is a fine-tuned version of [microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext](https://huggingface.co/microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext) on the marker-associations-binary-base dataset.
It achieves the following results on the evaluation set:
### Gene Results
- Precision = 0.808
- Recall = 0.940
- F1 = 0.869
- Accuracy = 0.862
- AUC = 0.944
### Chemical Results
- Precision = 0.774
- Recall = 1.0
- F1 = 0.873
- Accuracy = 0.926
- AUC = 0.964
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 1
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 15
### Training results
| Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy | Auc |
|:-------------:|:-----:|:----:|:---------------:|:---------:|:------:|:------:|:--------:|:------:|
| No log | 1.0 | 88 | 0.3266 | 0.8191 | 0.8462 | 0.8324 | 0.8670 | 0.9313 |
| No log | 2.0 | 176 | 0.3335 | 0.7870 | 0.9341 | 0.8543 | 0.8755 | 0.9465 |
| No log | 3.0 | 264 | 0.4243 | 0.7982 | 0.9560 | 0.87 | 0.8884 | 0.9516 |
| No log | 4.0 | 352 | 0.5388 | 0.825 | 0.7253 | 0.7719 | 0.8326 | 0.9384 |
| No log | 5.0 | 440 | 0.7101 | 0.8537 | 0.7692 | 0.8092 | 0.8584 | 0.9416 |
| 0.1824 | 6.0 | 528 | 0.6175 | 0.8242 | 0.8242 | 0.8242 | 0.8627 | 0.9478 |
### Framework versions
- Transformers 4.11.3
- Pytorch 1.9.0+cu111
- Tokenizers 0.10.3
|
{"license": "mit", "tags": ["generated_from_trainer"], "datasets": ["marker-associations-binary-base"], "metrics": ["precision", "recall", "f1", "accuracy"], "model-index": [{"name": "marker-associations-binary-base", "results": [{"task": {"type": "text-classification", "name": "Text Classification"}, "dataset": {"name": "marker-associations-binary-base", "type": "marker-associations-binary-base"}, "metrics": [{"type": "precision", "value": 0.7981651376146789, "name": "Precision"}, {"type": "recall", "value": 0.9560439560439561, "name": "Recall"}, {"type": "f1", "value": 0.87, "name": "F1"}, {"type": "accuracy", "value": 0.8884120171673819, "name": "Accuracy"}]}]}]}
|
jambo/marker-associations-binary-base
| null |
[
"transformers",
"pytorch",
"bert",
"text-classification",
"generated_from_trainer",
"dataset:marker-associations-binary-base",
"license:mit",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-marker-associations-binary-base #license-mit #model-index #autotrain_compatible #endpoints_compatible #region-us
|
marker-associations-binary-base
===============================
This model is a fine-tuned version of microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext on the marker-associations-binary-base dataset.
It achieves the following results on the evaluation set:
### Gene Results
* Precision = 0.808
* Recall = 0.940
* F1 = 0.869
* Accuracy = 0.862
* AUC = 0.944
### Chemical Results
* Precision = 0.774
* Recall = 1.0
* F1 = 0.873
* Accuracy = 0.926
* AUC = 0.964
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 5e-05
* train\_batch\_size: 16
* eval\_batch\_size: 16
* seed: 1
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* num\_epochs: 15
### Training results
### Framework versions
* Transformers 4.11.3
* Pytorch 1.9.0+cu111
* Tokenizers 0.10.3
|
[
"### Gene Results\n\n\n* Precision = 0.808\n* Recall = 0.940\n* F1 = 0.869\n* Accuracy = 0.862\n* AUC = 0.944",
"### Chemical Results\n\n\n* Precision = 0.774\n* Recall = 1.0\n* F1 = 0.873\n* Accuracy = 0.926\n* AUC = 0.964\n\n\nModel description\n-----------------\n\n\nMore information needed\n\n\nIntended uses & limitations\n---------------------------\n\n\nMore information needed\n\n\nTraining and evaluation data\n----------------------------\n\n\nMore information needed\n\n\nTraining procedure\n------------------",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 5e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 1\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 15",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.0+cu111\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-marker-associations-binary-base #license-mit #model-index #autotrain_compatible #endpoints_compatible #region-us \n",
"### Gene Results\n\n\n* Precision = 0.808\n* Recall = 0.940\n* F1 = 0.869\n* Accuracy = 0.862\n* AUC = 0.944",
"### Chemical Results\n\n\n* Precision = 0.774\n* Recall = 1.0\n* F1 = 0.873\n* Accuracy = 0.926\n* AUC = 0.964\n\n\nModel description\n-----------------\n\n\nMore information needed\n\n\nIntended uses & limitations\n---------------------------\n\n\nMore information needed\n\n\nTraining and evaluation data\n----------------------------\n\n\nMore information needed\n\n\nTraining procedure\n------------------",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 5e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 1\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 15",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.0+cu111\n* Tokenizers 0.10.3"
] |
text-classification
|
transformers
|
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# marker-associations-snp-binary-base
This model is a fine-tuned version of [microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext](https://huggingface.co/microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext) on the marker-associations-snp-binary-base dataset.
It achieves the following results on the evaluation set:
- Loss: 0.4027
- Precision: 0.9384
- Recall: 0.9056
- F1: 0.9217
- Accuracy: 0.9108
- Auc: 0.9578
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 1
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 15
### Training results
| Training Loss | Epoch | Step | Validation Loss | Precision | Recall | F1 | Accuracy | Auc |
|:-------------:|:-----:|:----:|:---------------:|:---------:|:------:|:------:|:--------:|:------:|
| No log | 1.0 | 153 | 0.2776 | 0.9 | 0.9441 | 0.9215 | 0.9067 | 0.9613 |
| No log | 2.0 | 306 | 0.4380 | 0.9126 | 0.9126 | 0.9126 | 0.8986 | 0.9510 |
| No log | 3.0 | 459 | 0.4027 | 0.9384 | 0.9056 | 0.9217 | 0.9108 | 0.9578 |
| 0.2215 | 4.0 | 612 | 0.3547 | 0.9449 | 0.8986 | 0.9211 | 0.9108 | 0.9642 |
| 0.2215 | 5.0 | 765 | 0.4465 | 0.9107 | 0.9266 | 0.9185 | 0.9047 | 0.9636 |
| 0.2215 | 6.0 | 918 | 0.5770 | 0.8970 | 0.9441 | 0.9199 | 0.9047 | 0.9666 |
### Framework versions
- Transformers 4.11.3
- Pytorch 1.9.0+cu111
- Tokenizers 0.10.3
|
{"license": "mit", "tags": ["generated_from_trainer"], "datasets": ["marker-associations-snp-binary-base"], "metrics": ["precision", "recall", "f1", "accuracy"], "model-index": [{"name": "marker-associations-snp-binary-base", "results": [{"task": {"type": "text-classification", "name": "Text Classification"}, "dataset": {"name": "marker-associations-snp-binary-base", "type": "marker-associations-snp-binary-base"}, "metrics": [{"type": "precision", "value": 0.9384057971014492, "name": "Precision"}, {"type": "recall", "value": 0.9055944055944056, "name": "Recall"}, {"type": "f1", "value": 0.9217081850533808, "name": "F1"}, {"type": "accuracy", "value": 0.9107505070993914, "name": "Accuracy"}]}]}]}
|
jambo/marker-associations-snp-binary-base
| null |
[
"transformers",
"pytorch",
"bert",
"text-classification",
"generated_from_trainer",
"dataset:marker-associations-snp-binary-base",
"license:mit",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-marker-associations-snp-binary-base #license-mit #model-index #autotrain_compatible #endpoints_compatible #region-us
|
marker-associations-snp-binary-base
===================================
This model is a fine-tuned version of microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext on the marker-associations-snp-binary-base dataset.
It achieves the following results on the evaluation set:
* Loss: 0.4027
* Precision: 0.9384
* Recall: 0.9056
* F1: 0.9217
* Accuracy: 0.9108
* Auc: 0.9578
Model description
-----------------
More information needed
Intended uses & limitations
---------------------------
More information needed
Training and evaluation data
----------------------------
More information needed
Training procedure
------------------
### Training hyperparameters
The following hyperparameters were used during training:
* learning\_rate: 5e-05
* train\_batch\_size: 16
* eval\_batch\_size: 16
* seed: 1
* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
* lr\_scheduler\_type: linear
* num\_epochs: 15
### Training results
### Framework versions
* Transformers 4.11.3
* Pytorch 1.9.0+cu111
* Tokenizers 0.10.3
|
[
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 5e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 1\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 15",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.0+cu111\n* Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-marker-associations-snp-binary-base #license-mit #model-index #autotrain_compatible #endpoints_compatible #region-us \n",
"### Training hyperparameters\n\n\nThe following hyperparameters were used during training:\n\n\n* learning\\_rate: 5e-05\n* train\\_batch\\_size: 16\n* eval\\_batch\\_size: 16\n* seed: 1\n* optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n* lr\\_scheduler\\_type: linear\n* num\\_epochs: 15",
"### Training results",
"### Framework versions\n\n\n* Transformers 4.11.3\n* Pytorch 1.9.0+cu111\n* Tokenizers 0.10.3"
] |
text-classification
|
transformers
|
# BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-renet
A model for detecting gene disease associations from abstracts. The model classifies as 0 for no association, or 1 for some association.
This model is a fine-tuned version of [microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext](https://huggingface.co/microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext) on the [RENET2](https://github.com/sujunhao/RENET2) dataset. Note that this considers only the abstract data, and not the full text information, from RENET2.
It achieves the following results on the evaluation set:
- Loss: 0.7226
- Precision: 0.7799
- Recall: 0.8211
- F1: 0.8
- Accuracy: 0.8641
- Auc: 0.9325
## Training procedure
The abstract dataset from RENET2 was split into 85% train, 15% evaluation being grouped by PMIDs and stratified by labels. That is, no data from the same PMID was seen in multiple both the training and the evaluation set.
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 1
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 5
### Framework versions
- Transformers 4.9.0.dev0
- Pytorch 1.10.0.dev20210630+cu113
- Datasets 1.8.0
- Tokenizers 0.10.3
|
{"license": "mit", "tags": ["generated_from_trainer"], "datasets": ["renet"], "metrics": ["precision", "recall", "f1", "accuracy"], "model_index": [{"name": "BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-renet", "results": [{"task": {"name": "Text Classification", "type": "text-classification"}, "dataset": {"name": "renet", "type": "renet"}, "metric": {"name": "Accuracy", "type": "accuracy", "value": 0.8640646029609691}}]}]}
|
jambo/microsoftBio-renet
| null |
[
"transformers",
"pytorch",
"bert",
"text-classification",
"generated_from_trainer",
"dataset:renet",
"license:mit",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-renet #license-mit #autotrain_compatible #endpoints_compatible #region-us
|
# BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-renet
A model for detecting gene disease associations from abstracts. The model classifies as 0 for no association, or 1 for some association.
This model is a fine-tuned version of microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext on the RENET2 dataset. Note that this considers only the abstract data, and not the full text information, from RENET2.
It achieves the following results on the evaluation set:
- Loss: 0.7226
- Precision: 0.7799
- Recall: 0.8211
- F1: 0.8
- Accuracy: 0.8641
- Auc: 0.9325
## Training procedure
The abstract dataset from RENET2 was split into 85% train, 15% evaluation being grouped by PMIDs and stratified by labels. That is, no data from the same PMID was seen in multiple both the training and the evaluation set.
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 1
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 5
### Framework versions
- Transformers 4.9.0.dev0
- Pytorch 1.10.0.dev20210630+cu113
- Datasets 1.8.0
- Tokenizers 0.10.3
|
[
"# BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-renet\n\nA model for detecting gene disease associations from abstracts. The model classifies as 0 for no association, or 1 for some association.\n\nThis model is a fine-tuned version of microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext on the RENET2 dataset. Note that this considers only the abstract data, and not the full text information, from RENET2. \n\nIt achieves the following results on the evaluation set:\n- Loss: 0.7226\n- Precision: 0.7799\n- Recall: 0.8211\n- F1: 0.8\n- Accuracy: 0.8641\n- Auc: 0.9325",
"## Training procedure\nThe abstract dataset from RENET2 was split into 85% train, 15% evaluation being grouped by PMIDs and stratified by labels. That is, no data from the same PMID was seen in multiple both the training and the evaluation set.",
"### Training hyperparameters\n\nThe following hyperparameters were used during training:\n- learning_rate: 5e-05\n- train_batch_size: 16\n- eval_batch_size: 16\n- seed: 1\n- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n- lr_scheduler_type: linear\n- num_epochs: 5",
"### Framework versions\n\n- Transformers 4.9.0.dev0\n- Pytorch 1.10.0.dev20210630+cu113\n- Datasets 1.8.0\n- Tokenizers 0.10.3"
] |
[
"TAGS\n#transformers #pytorch #bert #text-classification #generated_from_trainer #dataset-renet #license-mit #autotrain_compatible #endpoints_compatible #region-us \n",
"# BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext-finetuned-renet\n\nA model for detecting gene disease associations from abstracts. The model classifies as 0 for no association, or 1 for some association.\n\nThis model is a fine-tuned version of microsoft/BiomedNLP-PubMedBERT-base-uncased-abstract-fulltext on the RENET2 dataset. Note that this considers only the abstract data, and not the full text information, from RENET2. \n\nIt achieves the following results on the evaluation set:\n- Loss: 0.7226\n- Precision: 0.7799\n- Recall: 0.8211\n- F1: 0.8\n- Accuracy: 0.8641\n- Auc: 0.9325",
"## Training procedure\nThe abstract dataset from RENET2 was split into 85% train, 15% evaluation being grouped by PMIDs and stratified by labels. That is, no data from the same PMID was seen in multiple both the training and the evaluation set.",
"### Training hyperparameters\n\nThe following hyperparameters were used during training:\n- learning_rate: 5e-05\n- train_batch_size: 16\n- eval_batch_size: 16\n- seed: 1\n- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08\n- lr_scheduler_type: linear\n- num_epochs: 5",
"### Framework versions\n\n- Transformers 4.9.0.dev0\n- Pytorch 1.10.0.dev20210630+cu113\n- Datasets 1.8.0\n- Tokenizers 0.10.3"
] |
fill-mask
|
transformers
|
# BERT base for Dhivehi
Pretrained model on Dhivehi language using masked language modeling (MLM).
## Tokenizer
The *WordPiece* tokenizer uses several components:
* **Normalization**: lowercase and then NFKD unicode normalization.
* **Pretokenization**: splits by whitespace and punctuation.
* **Postprocessing**: single sentences are output in format `[CLS] sentence A [SEP]` and pair sentences in format `[CLS] sentence A [SEP] sentence B [SEP]`.
## Training
Training was performed over 16M+ Dhivehi sentences/paragraphs put together by [@ashraq](https://huggingface.co/ashraq). An Adam optimizer with weighted decay was used with following parameters:
* Learning rate: 1e-5
* Weight decay: 0.1
* Warmup steps: 10% of data
|
{"language": ["dv"], "license": "apache-2.0"}
|
jamescalam/bert-base-dv
| null |
[
"transformers",
"pytorch",
"bert",
"fill-mask",
"dv",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"dv"
] |
TAGS
#transformers #pytorch #bert #fill-mask #dv #license-apache-2.0 #autotrain_compatible #endpoints_compatible #region-us
|
# BERT base for Dhivehi
Pretrained model on Dhivehi language using masked language modeling (MLM).
## Tokenizer
The *WordPiece* tokenizer uses several components:
* Normalization: lowercase and then NFKD unicode normalization.
* Pretokenization: splits by whitespace and punctuation.
* Postprocessing: single sentences are output in format '[CLS] sentence A [SEP]' and pair sentences in format '[CLS] sentence A [SEP] sentence B [SEP]'.
## Training
Training was performed over 16M+ Dhivehi sentences/paragraphs put together by @ashraq. An Adam optimizer with weighted decay was used with following parameters:
* Learning rate: 1e-5
* Weight decay: 0.1
* Warmup steps: 10% of data
|
[
"# BERT base for Dhivehi\n\nPretrained model on Dhivehi language using masked language modeling (MLM).",
"## Tokenizer\n\nThe *WordPiece* tokenizer uses several components:\n\n* Normalization: lowercase and then NFKD unicode normalization.\n* Pretokenization: splits by whitespace and punctuation.\n* Postprocessing: single sentences are output in format '[CLS] sentence A [SEP]' and pair sentences in format '[CLS] sentence A [SEP] sentence B [SEP]'.",
"## Training\n\nTraining was performed over 16M+ Dhivehi sentences/paragraphs put together by @ashraq. An Adam optimizer with weighted decay was used with following parameters:\n\n* Learning rate: 1e-5\n* Weight decay: 0.1\n* Warmup steps: 10% of data"
] |
[
"TAGS\n#transformers #pytorch #bert #fill-mask #dv #license-apache-2.0 #autotrain_compatible #endpoints_compatible #region-us \n",
"# BERT base for Dhivehi\n\nPretrained model on Dhivehi language using masked language modeling (MLM).",
"## Tokenizer\n\nThe *WordPiece* tokenizer uses several components:\n\n* Normalization: lowercase and then NFKD unicode normalization.\n* Pretokenization: splits by whitespace and punctuation.\n* Postprocessing: single sentences are output in format '[CLS] sentence A [SEP]' and pair sentences in format '[CLS] sentence A [SEP] sentence B [SEP]'.",
"## Training\n\nTraining was performed over 16M+ Dhivehi sentences/paragraphs put together by @ashraq. An Adam optimizer with weighted decay was used with following parameters:\n\n* Learning rate: 1e-5\n* Weight decay: 0.1\n* Warmup steps: 10% of data"
] |
sentence-similarity
|
sentence-transformers
|
# Augmented SBERT STSb
This is a [sentence-transformers](https://www.SBERT.net) model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.
It is used as a demo model within the [NLP for Semantic Search course](https://www.pinecone.io/learn/nlp), for the chapter on [In-domain Data Augmentation with BERT](https://www.pinecone.io/learn/data-augmentation/).
## Usage (Sentence-Transformers)
Using this model becomes easy when you have [sentence-transformers](https://www.SBERT.net) installed:
```
pip install -U sentence-transformers
```
Then you can use the model like this:
```python
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('bert-stsb-aug')
embeddings = model.encode(sentences)
print(embeddings)
```
## Usage (HuggingFace Transformers)
Without [sentence-transformers](https://www.SBERT.net), you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.
```python
from transformers import AutoTokenizer, AutoModel
import torch
#Mean Pooling - Take attention mask into account for correct averaging
def mean_pooling(model_output, attention_mask):
token_embeddings = model_output[0] #First element of model_output contains all token embeddings
input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)
# Sentences we want sentence embeddings for
sentences = ['This is an example sentence', 'Each sentence is converted']
# Load model from HuggingFace Hub
tokenizer = AutoTokenizer.from_pretrained('bert-stsb-aug')
model = AutoModel.from_pretrained('bert-stsb-aug')
# Tokenize sentences
encoded_input = tokenizer(sentences, padding=True, truncation=True, return_tensors='pt')
# Compute token embeddings
with torch.no_grad():
model_output = model(**encoded_input)
# Perform pooling. In this case, mean pooling.
sentence_embeddings = mean_pooling(model_output, encoded_input['attention_mask'])
print("Sentence embeddings:")
print(sentence_embeddings)
```
## Training
The model was trained with the parameters:
**DataLoader**:
`torch.utils.data.dataloader.DataLoader` of length 2059 with parameters:
```
{'batch_size': 16, 'sampler': 'torch.utils.data.sampler.RandomSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}
```
**Loss**:
`sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss`
Parameters of the fit()-Method:
```
{
"epochs": 1,
"evaluation_steps": 0,
"evaluator": "NoneType",
"max_grad_norm": 1,
"optimizer_class": "<class 'transformers.optimization.AdamW'>",
"optimizer_params": {
"lr": 2e-05
},
"scheduler": "WarmupLinear",
"steps_per_epoch": null,
"warmup_steps": 308,
"weight_decay": 0.01
}
```
## Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False})
)
```
|
{"tags": ["sentence-transformers", "feature-extraction", "sentence-similarity", "transformers"], "pipeline_tag": "sentence-similarity"}
|
jamescalam/bert-stsb-aug
| null |
[
"sentence-transformers",
"pytorch",
"bert",
"feature-extraction",
"sentence-similarity",
"transformers",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#sentence-transformers #pytorch #bert #feature-extraction #sentence-similarity #transformers #endpoints_compatible #region-us
|
# Augmented SBERT STSb
This is a sentence-transformers model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.
It is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.
## Usage (Sentence-Transformers)
Using this model becomes easy when you have sentence-transformers installed:
Then you can use the model like this:
## Usage (HuggingFace Transformers)
Without sentence-transformers, you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.
## Training
The model was trained with the parameters:
DataLoader:
'URL.dataloader.DataLoader' of length 2059 with parameters:
Loss:
'sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss'
Parameters of the fit()-Method:
## Full Model Architecture
|
[
"# Augmented SBERT STSb\n\nThis is a sentence-transformers model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.\n\nIt is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.",
"## Usage (Sentence-Transformers)\n\nUsing this model becomes easy when you have sentence-transformers installed:\n\n\n\nThen you can use the model like this:",
"## Usage (HuggingFace Transformers)\n\nWithout sentence-transformers, you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.",
"## Training\nThe model was trained with the parameters:\n\nDataLoader:\n\n'URL.dataloader.DataLoader' of length 2059 with parameters:\n\n\nLoss:\n\n'sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss' \n\nParameters of the fit()-Method:",
"## Full Model Architecture"
] |
[
"TAGS\n#sentence-transformers #pytorch #bert #feature-extraction #sentence-similarity #transformers #endpoints_compatible #region-us \n",
"# Augmented SBERT STSb\n\nThis is a sentence-transformers model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.\n\nIt is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.",
"## Usage (Sentence-Transformers)\n\nUsing this model becomes easy when you have sentence-transformers installed:\n\n\n\nThen you can use the model like this:",
"## Usage (HuggingFace Transformers)\n\nWithout sentence-transformers, you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.",
"## Training\nThe model was trained with the parameters:\n\nDataLoader:\n\n'URL.dataloader.DataLoader' of length 2059 with parameters:\n\n\nLoss:\n\n'sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss' \n\nParameters of the fit()-Method:",
"## Full Model Architecture"
] |
sentence-similarity
|
sentence-transformers
|
# Augmented SBERT STSb
This is a [sentence-transformers](https://www.SBERT.net) cross encoder model.
It is used as a demo model within the [NLP for Semantic Search course](https://www.pinecone.io/learn/nlp), for the chapter on [In-domain Data Augmentation with BERT](https://www.pinecone.io/learn/data-augmentation/).
|
{"tags": ["sentence-transformers", "sentence-similarity", "transformers", "cross-encoder"], "pipeline_tag": "sentence-similarity"}
|
jamescalam/bert-stsb-cross-encoder
| null |
[
"sentence-transformers",
"pytorch",
"bert",
"text-classification",
"sentence-similarity",
"transformers",
"cross-encoder",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#sentence-transformers #pytorch #bert #text-classification #sentence-similarity #transformers #cross-encoder #endpoints_compatible #region-us
|
# Augmented SBERT STSb
This is a sentence-transformers cross encoder model.
It is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.
|
[
"# Augmented SBERT STSb\n\nThis is a sentence-transformers cross encoder model.\n\nIt is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT."
] |
[
"TAGS\n#sentence-transformers #pytorch #bert #text-classification #sentence-similarity #transformers #cross-encoder #endpoints_compatible #region-us \n",
"# Augmented SBERT STSb\n\nThis is a sentence-transformers cross encoder model.\n\nIt is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT."
] |
sentence-similarity
|
sentence-transformers
|
# Gold-only BERT STSb
This is a [sentence-transformers](https://www.SBERT.net) model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.
It is used as a demo model within the [NLP for Semantic Search course](https://www.pinecone.io/learn/nlp), for the chapter on [In-domain Data Augmentation with BERT](https://www.pinecone.io/learn/data-augmentation/).
## Usage (Sentence-Transformers)
Using this model becomes easy when you have [sentence-transformers](https://www.SBERT.net) installed:
```
pip install -U sentence-transformers
```
Then you can use the model like this:
```python
from sentence_transformers import SentenceTransformer
sentences = ["This is an example sentence", "Each sentence is converted"]
model = SentenceTransformer('bert-stsb-gold')
embeddings = model.encode(sentences)
print(embeddings)
```
## Usage (HuggingFace Transformers)
Without [sentence-transformers](https://www.SBERT.net), you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.
```python
from transformers import AutoTokenizer, AutoModel
import torch
#Mean Pooling - Take attention mask into account for correct averaging
def mean_pooling(model_output, attention_mask):
token_embeddings = model_output[0] #First element of model_output contains all token embeddings
input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)
# Sentences we want sentence embeddings for
sentences = ['This is an example sentence', 'Each sentence is converted']
# Load model from HuggingFace Hub
tokenizer = AutoTokenizer.from_pretrained('bert-stsb-gold')
model = AutoModel.from_pretrained('bert-stsb-gold')
# Tokenize sentences
encoded_input = tokenizer(sentences, padding=True, truncation=True, return_tensors='pt')
# Compute token embeddings
with torch.no_grad():
model_output = model(**encoded_input)
# Perform pooling. In this case, mean pooling.
sentence_embeddings = mean_pooling(model_output, encoded_input['attention_mask'])
print("Sentence embeddings:")
print(sentence_embeddings)
```
## Training
The model was trained with the parameters:
**DataLoader**:
`torch.utils.data.dataloader.DataLoader` of length 360 with parameters:
```
{'batch_size': 16, 'sampler': 'torch.utils.data.sampler.RandomSampler', 'batch_sampler': 'torch.utils.data.sampler.BatchSampler'}
```
**Loss**:
`sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss`
Parameters of the fit()-Method:
```
{
"epochs": 1,
"evaluation_steps": 0,
"evaluator": "NoneType",
"max_grad_norm": 1,
"optimizer_class": "<class 'transformers.optimization.AdamW'>",
"optimizer_params": {
"lr": 2e-05
},
"scheduler": "WarmupLinear",
"steps_per_epoch": null,
"warmup_steps": 36,
"weight_decay": 0.01
}
```
## Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False})
)
```
|
{"tags": ["sentence-transformers", "feature-extraction", "sentence-similarity", "transformers"], "pipeline_tag": "sentence-similarity"}
|
jamescalam/bert-stsb-gold
| null |
[
"sentence-transformers",
"pytorch",
"bert",
"feature-extraction",
"sentence-similarity",
"transformers",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#sentence-transformers #pytorch #bert #feature-extraction #sentence-similarity #transformers #endpoints_compatible #region-us
|
# Gold-only BERT STSb
This is a sentence-transformers model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.
It is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.
## Usage (Sentence-Transformers)
Using this model becomes easy when you have sentence-transformers installed:
Then you can use the model like this:
## Usage (HuggingFace Transformers)
Without sentence-transformers, you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.
## Training
The model was trained with the parameters:
DataLoader:
'URL.dataloader.DataLoader' of length 360 with parameters:
Loss:
'sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss'
Parameters of the fit()-Method:
## Full Model Architecture
|
[
"# Gold-only BERT STSb\n\nThis is a sentence-transformers model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.\n\nIt is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.",
"## Usage (Sentence-Transformers)\n\nUsing this model becomes easy when you have sentence-transformers installed:\n\n\n\nThen you can use the model like this:",
"## Usage (HuggingFace Transformers)\nWithout sentence-transformers, you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.",
"## Training\nThe model was trained with the parameters:\n\nDataLoader:\n\n'URL.dataloader.DataLoader' of length 360 with parameters:\n\n\nLoss:\n\n'sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss' \n\nParameters of the fit()-Method:",
"## Full Model Architecture"
] |
[
"TAGS\n#sentence-transformers #pytorch #bert #feature-extraction #sentence-similarity #transformers #endpoints_compatible #region-us \n",
"# Gold-only BERT STSb\n\nThis is a sentence-transformers model: It maps sentences & paragraphs to a 768 dimensional dense vector space and can be used for tasks like clustering or semantic search.\n\nIt is used as a demo model within the NLP for Semantic Search course, for the chapter on In-domain Data Augmentation with BERT.",
"## Usage (Sentence-Transformers)\n\nUsing this model becomes easy when you have sentence-transformers installed:\n\n\n\nThen you can use the model like this:",
"## Usage (HuggingFace Transformers)\nWithout sentence-transformers, you can use the model like this: First, you pass your input through the transformer model, then you have to apply the right pooling-operation on-top of the contextualized word embeddings.",
"## Training\nThe model was trained with the parameters:\n\nDataLoader:\n\n'URL.dataloader.DataLoader' of length 360 with parameters:\n\n\nLoss:\n\n'sentence_transformers.losses.CosineSimilarityLoss.CosineSimilarityLoss' \n\nParameters of the fit()-Method:",
"## Full Model Architecture"
] |
text-generation
|
transformers
|
# Spike DialoGPT Model
|
{"tags": ["conversational"]}
|
jamestop00/DialoGPT-spike-medium
| null |
[
"transformers",
"pytorch",
"gpt2",
"text-generation",
"conversational",
"autotrain_compatible",
"endpoints_compatible",
"text-generation-inference",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[] |
TAGS
#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us
|
# Spike DialoGPT Model
|
[
"# Spike DialoGPT Model"
] |
[
"TAGS\n#transformers #pytorch #gpt2 #text-generation #conversational #autotrain_compatible #endpoints_compatible #text-generation-inference #region-us \n",
"# Spike DialoGPT Model"
] |
null |
transformers
|
# BERTSSON Models
The models are trained on:
- Government Text
- Swedish Literature
- Swedish News
Corpus size: Roughly 6B tokens.
The following models are currently available:
- **bertsson** - A BERT base model trained with the same hyperparameters as first published by Google.
All models are cased and trained with whole word masking.
Stay tuned for evaluations.
|
{"language": "sv"}
|
jannesg/bertsson
| null |
[
"transformers",
"pytorch",
"jax",
"bert",
"sv",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"sv"
] |
TAGS
#transformers #pytorch #jax #bert #sv #endpoints_compatible #region-us
|
# BERTSSON Models
The models are trained on:
- Government Text
- Swedish Literature
- Swedish News
Corpus size: Roughly 6B tokens.
The following models are currently available:
- bertsson - A BERT base model trained with the same hyperparameters as first published by Google.
All models are cased and trained with whole word masking.
Stay tuned for evaluations.
|
[
"# BERTSSON Models\n\nThe models are trained on:\n- Government Text\n- Swedish Literature\n- Swedish News\n\nCorpus size: Roughly 6B tokens.\n\nThe following models are currently available:\n\n- bertsson - A BERT base model trained with the same hyperparameters as first published by Google.\n\nAll models are cased and trained with whole word masking.\n\nStay tuned for evaluations."
] |
[
"TAGS\n#transformers #pytorch #jax #bert #sv #endpoints_compatible #region-us \n",
"# BERTSSON Models\n\nThe models are trained on:\n- Government Text\n- Swedish Literature\n- Swedish News\n\nCorpus size: Roughly 6B tokens.\n\nThe following models are currently available:\n\n- bertsson - A BERT base model trained with the same hyperparameters as first published by Google.\n\nAll models are cased and trained with whole word masking.\n\nStay tuned for evaluations."
] |
fill-mask
|
transformers
|
# Takalani Sesame - Salie - Afrikaans 🇿🇦
<img src="https://pbs.twimg.com/media/EVjR6BsWoAAFaq5.jpg" width="600"/>
## Model description
Takalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.
## Intended uses & limitations
#### How to use
```python
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("jannesg/takalane_afr_roberta")
model = AutoModelWithLMHead.from_pretrained("jannesg/takalane_afr_roberta")
```
#### Limitations and bias
Updates will be added continuously to improve performance.
## Training data
Data collected from [https://wortschatz.uni-leipzig.de/en](https://wortschatz.uni-leipzig.de/en) <br/>
**Sentences:** 2.8M
## Training procedure
No preprocessing. Standard Huggingface hyperparameters.
## Author
Jannes Germishuys [website](http://jannesgg.github.io)
|
{"language": ["af"], "license": "mit", "tags": ["af", "fill-mask", "pytorch", "roberta", "masked-lm"], "thumbnail": "https://pbs.twimg.com/media/EVjR6BsWoAAFaq5.jpg"}
|
jannesg/takalane_afr_roberta
| null |
[
"transformers",
"pytorch",
"jax",
"roberta",
"fill-mask",
"af",
"masked-lm",
"license:mit",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"af"
] |
TAGS
#transformers #pytorch #jax #roberta #fill-mask #af #masked-lm #license-mit #autotrain_compatible #endpoints_compatible #region-us
|
# Takalani Sesame - Salie - Afrikaans 🇿🇦
<img src="URL width="600"/>
## Model description
Takalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.
## Intended uses & limitations
#### How to use
#### Limitations and bias
Updates will be added continuously to improve performance.
## Training data
Data collected from URL <br/>
Sentences: 2.8M
## Training procedure
No preprocessing. Standard Huggingface hyperparameters.
## Author
Jannes Germishuys website
|
[
"# Takalani Sesame - Salie - Afrikaans 🇿🇦\n\n<img src=\"URL width=\"600\"/>",
"## Model description\n\nTakalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.",
"## Intended uses & limitations",
"#### How to use",
"#### Limitations and bias\n\nUpdates will be added continuously to improve performance.",
"## Training data\n\nData collected from URL <br/>\nSentences: 2.8M",
"## Training procedure\n\nNo preprocessing. Standard Huggingface hyperparameters.",
"## Author\n\nJannes Germishuys website"
] |
[
"TAGS\n#transformers #pytorch #jax #roberta #fill-mask #af #masked-lm #license-mit #autotrain_compatible #endpoints_compatible #region-us \n",
"# Takalani Sesame - Salie - Afrikaans 🇿🇦\n\n<img src=\"URL width=\"600\"/>",
"## Model description\n\nTakalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.",
"## Intended uses & limitations",
"#### How to use",
"#### Limitations and bias\n\nUpdates will be added continuously to improve performance.",
"## Training data\n\nData collected from URL <br/>\nSentences: 2.8M",
"## Training procedure\n\nNo preprocessing. Standard Huggingface hyperparameters.",
"## Author\n\nJannes Germishuys website"
] |
fill-mask
|
transformers
|
# Takalani Sesame - Ndebele 🇿🇦
<img src="https://pbs.twimg.com/media/EVjR6BsWoAAFaq5.jpg" width="600"/>
## Model description
Takalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.
## Intended uses & limitations
#### How to use
```python
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("jannesg/takalane_nbl_roberta")
model = AutoModelWithLMHead.from_pretrained("jannesg/takalane_nbl_roberta")
```
#### Limitations and bias
Updates will be added continously to improve performance. This is a very low resource language, results may be poor at first.
## Training data
Data collected from [https://wortschatz.uni-leipzig.de/en](https://wortschatz.uni-leipzig.de/en) <br/>
**Sentences:** 318M
## Training procedure
No preprocessing. Standard Huggingface hyperparameters.
## Author
Jannes Germishuys [website](http://jannesgg.github.io)
|
{"language": ["nr"], "license": "mit", "tags": ["nr", "fill-mask", "pytorch", "roberta", "masked-lm"], "thumbnail": "https://pbs.twimg.com/media/EVjR6BsWoAAFaq5.jpg"}
|
jannesg/takalane_nbl_roberta
| null |
[
"transformers",
"pytorch",
"jax",
"roberta",
"fill-mask",
"nr",
"masked-lm",
"license:mit",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] | null |
2022-03-02T23:29:05+00:00
|
[] |
[
"nr"
] |
TAGS
#transformers #pytorch #jax #roberta #fill-mask #nr #masked-lm #license-mit #autotrain_compatible #endpoints_compatible #region-us
|
# Takalani Sesame - Ndebele 🇿🇦
<img src="URL width="600"/>
## Model description
Takalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.
## Intended uses & limitations
#### How to use
#### Limitations and bias
Updates will be added continously to improve performance. This is a very low resource language, results may be poor at first.
## Training data
Data collected from URL <br/>
Sentences: 318M
## Training procedure
No preprocessing. Standard Huggingface hyperparameters.
## Author
Jannes Germishuys website
|
[
"# Takalani Sesame - Ndebele 🇿🇦\n\n<img src=\"URL width=\"600\"/>",
"## Model description\n\nTakalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.",
"## Intended uses & limitations",
"#### How to use",
"#### Limitations and bias\n\nUpdates will be added continously to improve performance. This is a very low resource language, results may be poor at first.",
"## Training data\n\nData collected from URL <br/>\nSentences: 318M",
"## Training procedure\n\nNo preprocessing. Standard Huggingface hyperparameters.",
"## Author\n\nJannes Germishuys website"
] |
[
"TAGS\n#transformers #pytorch #jax #roberta #fill-mask #nr #masked-lm #license-mit #autotrain_compatible #endpoints_compatible #region-us \n",
"# Takalani Sesame - Ndebele 🇿🇦\n\n<img src=\"URL width=\"600\"/>",
"## Model description\n\nTakalani Sesame (named after the South African version of Sesame Street) is a project that aims to promote the use of South African languages in NLP, and in particular look at techniques for low-resource languages to equalise performance with larger languages around the world.",
"## Intended uses & limitations",
"#### How to use",
"#### Limitations and bias\n\nUpdates will be added continously to improve performance. This is a very low resource language, results may be poor at first.",
"## Training data\n\nData collected from URL <br/>\nSentences: 318M",
"## Training procedure\n\nNo preprocessing. Standard Huggingface hyperparameters.",
"## Author\n\nJannes Germishuys website"
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.