File size: 3,736 Bytes
89d0962
9d033f5
 
be5b1ba
 
9d033f5
89d0962
9d033f5
 
 
 
 
 
 
89d0962
 
 
 
9d033f5
89d0962
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
9d033f5
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
---
language:
- en
- uk
- ru
license: apache-2.0
tags:
- text2text-generation
- transformer
- russian
- flare
metrics:
- character
library_name: transformers.js
---

# FlareNew

**FlareNew** is a text-to-text model based on the Transformer architecture, optimized for use with Hugging Face and the [transformers.js](https://xenova.github.io/transformers.js/) library in the browser.

---

## О модели

- Тип: Text-to-Text Generation  
- Архитектура: Transformer  
- Название модели на Hugging Face: `FlareNew`  
- Цель: генерация связного, естественного текста на основе текстового запроса

---

## Использование на Hugging Face (Python)

```python
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

model_name = "FlareNew"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)

input_text = "Пример входного текста"
inputs = tokenizer(input_text, return_tensors="pt")

outputs = model.generate(**inputs)
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(generated_text)
```

---

## Использование с transformers.js (JavaScript)

```javascript
import { pipeline } from "@xenova/transformers";

async function run() {
  // Инициализация пайплайна text2text-generation с моделью FlareNew
  const generator = await pipeline("text2text-generation", "FlareNew");

  const input = "Пример входного текста";

  const output = await generator(input);

  console.log(output[0].generated_text);
}

run();
```

---

## Установка

### Python (Hugging Face Transformers)

```bash
pip install transformers torch
```

### JavaScript (transformers.js)

```bash
npm install @xenova/transformers
```

---

## Тренировка модели

На этой странице вы можете нажать кнопку **Train**, чтобы запустить процесс обучения модели.  
Для этого в репозитории настроен [GitHub Actions workflow](./.github/workflows/train.yml), который автоматически запускает тренировку на выбранных данных.

Если вы хотите запустить тренировку локально, используйте следующий пример команды:

```bash
python train.py --model_name FlareNew --train_data path/to/train_data.jsonl
```

---

## Развёртывание модели

Чтобы быстро развернуть модель и протестировать её через веб-интерфейс, воспользуйтесь кнопкой **Deploy**, которая создаст приложение на Hugging Face Spaces.

Также вы можете самостоятельно запустить Space с этим кодом:

```python
import gradio as gr
from transformers import pipeline

generator = pipeline("text2text-generation", "FlareNew")

def generate_text(input_text):
    output = generator(input_text)
    return output[0]['generated_text']

iface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="FlareNew Text Generation")
iface.launch()
```

---

## Контакты и поддержка

Если у вас есть вопросы или предложения, пожалуйста, создайте issue в репозитории или свяжитесь со мной.

---

## Лицензия

Укажите здесь лицензию вашей модели (например, MIT, Apache 2.0 и т.д.)