File size: 3,736 Bytes
89d0962 9d033f5 be5b1ba 9d033f5 89d0962 9d033f5 89d0962 9d033f5 89d0962 9d033f5 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 |
---
language:
- en
- uk
- ru
license: apache-2.0
tags:
- text2text-generation
- transformer
- russian
- flare
metrics:
- character
library_name: transformers.js
---
# FlareNew
**FlareNew** is a text-to-text model based on the Transformer architecture, optimized for use with Hugging Face and the [transformers.js](https://xenova.github.io/transformers.js/) library in the browser.
---
## О модели
- Тип: Text-to-Text Generation
- Архитектура: Transformer
- Название модели на Hugging Face: `FlareNew`
- Цель: генерация связного, естественного текста на основе текстового запроса
---
## Использование на Hugging Face (Python)
```python
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
model_name = "FlareNew"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
input_text = "Пример входного текста"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(generated_text)
```
---
## Использование с transformers.js (JavaScript)
```javascript
import { pipeline } from "@xenova/transformers";
async function run() {
// Инициализация пайплайна text2text-generation с моделью FlareNew
const generator = await pipeline("text2text-generation", "FlareNew");
const input = "Пример входного текста";
const output = await generator(input);
console.log(output[0].generated_text);
}
run();
```
---
## Установка
### Python (Hugging Face Transformers)
```bash
pip install transformers torch
```
### JavaScript (transformers.js)
```bash
npm install @xenova/transformers
```
---
## Тренировка модели
На этой странице вы можете нажать кнопку **Train**, чтобы запустить процесс обучения модели.
Для этого в репозитории настроен [GitHub Actions workflow](./.github/workflows/train.yml), который автоматически запускает тренировку на выбранных данных.
Если вы хотите запустить тренировку локально, используйте следующий пример команды:
```bash
python train.py --model_name FlareNew --train_data path/to/train_data.jsonl
```
---
## Развёртывание модели
Чтобы быстро развернуть модель и протестировать её через веб-интерфейс, воспользуйтесь кнопкой **Deploy**, которая создаст приложение на Hugging Face Spaces.
Также вы можете самостоятельно запустить Space с этим кодом:
```python
import gradio as gr
from transformers import pipeline
generator = pipeline("text2text-generation", "FlareNew")
def generate_text(input_text):
output = generator(input_text)
return output[0]['generated_text']
iface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="FlareNew Text Generation")
iface.launch()
```
---
## Контакты и поддержка
Если у вас есть вопросы или предложения, пожалуйста, создайте issue в репозитории или свяжитесь со мной.
---
## Лицензия
Укажите здесь лицензию вашей модели (например, MIT, Apache 2.0 и т.д.) |