modelId
stringlengths 5
139
| author
stringlengths 2
42
| last_modified
timestamp[us, tz=UTC]date 2020-02-15 11:33:14
2025-09-12 12:31:00
| downloads
int64 0
223M
| likes
int64 0
11.7k
| library_name
stringclasses 555
values | tags
listlengths 1
4.05k
| pipeline_tag
stringclasses 55
values | createdAt
timestamp[us, tz=UTC]date 2022-03-02 23:29:04
2025-09-12 12:28:53
| card
stringlengths 11
1.01M
|
---|---|---|---|---|---|---|---|---|---|
SwetaJena/llama-3.2-1B-dolphin_numbers_student_12
|
SwetaJena
| 2025-08-20T07:55:16Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"llama",
"trl",
"en",
"base_model:unsloth/Llama-3.2-1B-Instruct",
"base_model:finetune:unsloth/Llama-3.2-1B-Instruct",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T07:55:09Z |
---
base_model: unsloth/Llama-3.2-1B-Instruct
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** SwetaJena
- **License:** apache-2.0
- **Finetuned from model :** unsloth/Llama-3.2-1B-Instruct
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
joanna302/Qwen3-8B-Base_pag_alpaca_0.66_part_SFT_8e-05
|
joanna302
| 2025-08-20T07:53:25Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"sft",
"trl",
"unsloth",
"conversational",
"base_model:unsloth/Qwen3-8B-Base",
"base_model:finetune:unsloth/Qwen3-8B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-17T11:50:36Z |
---
base_model: unsloth/Qwen3-8B-Base
library_name: transformers
model_name: Qwen3-8B-Base_pag_alpaca_0.66_part_SFT_8e-05
tags:
- generated_from_trainer
- sft
- trl
- unsloth
licence: license
---
# Model Card for Qwen3-8B-Base_pag_alpaca_0.66_part_SFT_8e-05
This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_pag_alpaca_0.66_part_SFT_8e-05", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_pag_alpaca_0.66_part_SFT_8e-05/runs/73ibqx5t)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
AnerYubo/blockassist-bc-alert_snorting_fox_1755676248
|
AnerYubo
| 2025-08-20T07:50:51Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"alert snorting fox",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:50:48Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- alert snorting fox
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755674653
|
lisaozill03
| 2025-08-20T07:50:26Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rugged prickly alpaca",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:50:18Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rugged prickly alpaca
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
kevinshin/qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k
|
kevinshin
| 2025-08-20T07:48:47Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"dpo",
"trl",
"conversational",
"dataset:kevinshin/wildchat-creative-writing-3k-pref",
"arxiv:2305.18290",
"base_model:Qwen/Qwen3-1.7B",
"base_model:finetune:Qwen/Qwen3-1.7B",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-20T03:52:03Z |
---
base_model: Qwen/Qwen3-1.7B
datasets: kevinshin/wildchat-creative-writing-3k-pref
library_name: transformers
model_name: qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k
tags:
- generated_from_trainer
- dpo
- trl
licence: license
---
# Model Card for qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k
This model is a fine-tuned version of [Qwen/Qwen3-1.7B](https://huggingface.co/Qwen/Qwen3-1.7B) on the [kevinshin/wildchat-creative-writing-3k-pref](https://huggingface.co/datasets/kevinshin/wildchat-creative-writing-3k-pref) dataset.
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="kevinshin/qwen3-1.7b-dpo-lr-1e-6-batch-16-epoch-1-wildchat-cw-3k", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/myungjune-sogang-university/general_remo_train/runs/vlm6iwxd)
This model was trained with DPO, a method introduced in [Direct Preference Optimization: Your Language Model is Secretly a Reward Model](https://huggingface.co/papers/2305.18290).
### Framework versions
- TRL: 0.19.1
- Transformers: 4.55.0.dev0
- Pytorch: 2.6.0+cu126
- Datasets: 4.0.0
- Tokenizers: 0.21.2
## Citations
Cite DPO as:
```bibtex
@inproceedings{rafailov2023direct,
title = {{Direct Preference Optimization: Your Language Model is Secretly a Reward Model}},
author = {Rafael Rafailov and Archit Sharma and Eric Mitchell and Christopher D. Manning and Stefano Ermon and Chelsea Finn},
year = 2023,
booktitle = {Advances in Neural Information Processing Systems 36: Annual Conference on Neural Information Processing Systems 2023, NeurIPS 2023, New Orleans, LA, USA, December 10 - 16, 2023},
url = {http://papers.nips.cc/paper_files/paper/2023/hash/a85b405ed65c6477a4fe8302b5e06ce7-Abstract-Conference.html},
editor = {Alice Oh and Tristan Naumann and Amir Globerson and Kate Saenko and Moritz Hardt and Sergey Levine},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
joanna302/Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_2e-05
|
joanna302
| 2025-08-20T07:48:35Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"unsloth",
"trl",
"sft",
"conversational",
"base_model:unsloth/Qwen3-8B-Base",
"base_model:finetune:unsloth/Qwen3-8B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-18T17:10:12Z |
---
base_model: unsloth/Qwen3-8B-Base
library_name: transformers
model_name: Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_2e-05
tags:
- generated_from_trainer
- unsloth
- trl
- sft
licence: license
---
# Model Card for Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_2e-05
This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_2e-05", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_pag_mt_alpaca_0.66_part_SFT_2e-05/runs/fd70k4jm)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002
|
joanna302
| 2025-08-20T07:46:49Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"trl",
"unsloth",
"sft",
"conversational",
"base_model:unsloth/Qwen3-8B-Base",
"base_model:finetune:unsloth/Qwen3-8B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-18T13:24:35Z |
---
base_model: unsloth/Qwen3-8B-Base
library_name: transformers
model_name: Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002
tags:
- generated_from_trainer
- trl
- unsloth
- sft
licence: license
---
# Model Card for Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002
This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_0.0002/runs/kipt4jhf)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_2e-05
|
joanna302
| 2025-08-20T07:46:12Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"trl",
"unsloth",
"sft",
"conversational",
"base_model:unsloth/Qwen3-8B-Base",
"base_model:finetune:unsloth/Qwen3-8B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-18T13:45:34Z |
---
base_model: unsloth/Qwen3-8B-Base
library_name: transformers
model_name: Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_2e-05
tags:
- generated_from_trainer
- trl
- unsloth
- sft
licence: license
---
# Model Card for Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_2e-05
This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_2e-05", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_2e-05/runs/g8oh4b3r)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
yaelahnal/blockassist-bc-mute_clawed_crab_1755675892
|
yaelahnal
| 2025-08-20T07:46:04Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"mute clawed crab",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:45:45Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- mute clawed crab
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_8e-05
|
joanna302
| 2025-08-20T07:45:36Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"unsloth",
"trl",
"sft",
"conversational",
"base_model:unsloth/Qwen3-8B-Base",
"base_model:finetune:unsloth/Qwen3-8B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-18T13:47:27Z |
---
base_model: unsloth/Qwen3-8B-Base
library_name: transformers
model_name: Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_8e-05
tags:
- generated_from_trainer
- unsloth
- trl
- sft
licence: license
---
# Model Card for Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_8e-05
This model is a fine-tuned version of [unsloth/Qwen3-8B-Base](https://huggingface.co/unsloth/Qwen3-8B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_8e-05", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-8B-Base_zh_ar_alpaca_0.66_part_SFT_8e-05/runs/vuased7f)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
aleebaster/blockassist-bc-sly_eager_boar_1755674371
|
aleebaster
| 2025-08-20T07:45:24Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"sly eager boar",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:45:16Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- sly eager boar
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
kojeklollipop/blockassist-bc-spotted_amphibious_stork_1755674272
|
kojeklollipop
| 2025-08-20T07:44:54Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"spotted amphibious stork",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:44:50Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- spotted amphibious stork
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
k1000dai/residualact_libero_smolvla_chunk_batch64
|
k1000dai
| 2025-08-20T07:44:50Z | 0 | 0 |
lerobot
|
[
"lerobot",
"safetensors",
"residualact",
"robotics",
"dataset:k1000dai/libero-smolvla",
"license:apache-2.0",
"region:us"
] |
robotics
| 2025-08-17T08:07:41Z |
---
datasets: k1000dai/libero-smolvla
library_name: lerobot
license: apache-2.0
model_name: residualact
pipeline_tag: robotics
tags:
- residualact
- robotics
- lerobot
---
# Model Card for residualact
<!-- Provide a quick summary of what the model is/does. -->
_Model type not recognized — please update this template._
This policy has been trained and pushed to the Hub using [LeRobot](https://github.com/huggingface/lerobot).
See the full documentation at [LeRobot Docs](https://huggingface.co/docs/lerobot/index).
---
## How to Get Started with the Model
For a complete walkthrough, see the [training guide](https://huggingface.co/docs/lerobot/il_robots#train-a-policy).
Below is the short version on how to train and run inference/eval:
### Train from scratch
```bash
python -m lerobot.scripts.train \
--dataset.repo_id=${HF_USER}/<dataset> \
--policy.type=act \
--output_dir=outputs/train/<desired_policy_repo_id> \
--job_name=lerobot_training \
--policy.device=cuda \
--policy.repo_id=${HF_USER}/<desired_policy_repo_id>
--wandb.enable=true
```
_Writes checkpoints to `outputs/train/<desired_policy_repo_id>/checkpoints/`._
### Evaluate the policy/run inference
```bash
python -m lerobot.record \
--robot.type=so100_follower \
--dataset.repo_id=<hf_user>/eval_<dataset> \
--policy.path=<hf_user>/<desired_policy_repo_id> \
--episodes=10
```
Prefix the dataset repo with **eval\_** and supply `--policy.path` pointing to a local or hub checkpoint.
---
## Model Details
- **License:** apache-2.0
|
calegpedia/blockassist-bc-stealthy_slimy_rooster_1755674102
|
calegpedia
| 2025-08-20T07:41:12Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"stealthy slimy rooster",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:41:07Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- stealthy slimy rooster
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Albertdebeauvais/all-MiniLM-L6-v2_bibliographie
|
Albertdebeauvais
| 2025-08-20T07:40:53Z | 8 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"bert",
"sentence-similarity",
"feature-extraction",
"generated_from_trainer",
"dataset_size:388038",
"loss:CosineSimilarityLoss",
"arxiv:1908.10084",
"base_model:sentence-transformers/all-MiniLM-L6-v2",
"base_model:finetune:sentence-transformers/all-MiniLM-L6-v2",
"model-index",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-07-15T09:04:27Z |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:388038
- loss:CosineSimilarityLoss
base_model: sentence-transformers/all-MiniLM-L6-v2
widget:
- source_sentence: Les Chemins de l'effort, édité en 1975, Paris, éd. Actes Sud.
sentences:
- chisinau, Actes Sud, FECOURA, Dusty et VEHIER, Tyrrell, en 1915, « Les œufs d'or
de ; oa guerre ».
- Zagreb, éd. CNRS, FABRIE, Seneca, FARHAT, Hope, DE LASTIC SAINT JAL, Daniella,
1997, Poe et les enseignements de l'Est.
- (1975), Paris, Actes Sud éditions, « Les Chemins de l'effort ».
- source_sentence: par BURTSCHELL, Régine et ALESSANDRONI, Diggory, 1900, « Complément
du catalogue analytique des manuscrits de la bibliothèque d'Abbeville », Rennes,
Verlag Ferdinand Schöningh éditions.
sentences:
- « Complément du catalogue analytique des manuscrots de la bibliothèque d'Abbeville
», Rennes, Verlag Ferdinand Schöningh éditions, BURTSCHELL, Régine, sous la direction
de ALESSANDRONI, Diggory, (1900).
- Vortex, le cheval fou, publié en ; 1926, , Bordeaux, L’Harmattan.
- 1997, DEPOUMEAUX, Summer, « De chair et de lumière », Luxembourg, L’Harmattan
éditions.
- source_sentence: de Lorita, STREIFF, Petronella, MONTIALOUX, Gale, DANGOUMAU et
ed Montgomery, D AUBERT, Dean Martin, (2011), Prague, éd. Peter Lang.
sentences:
- Amiens, University of Chicago Press, GUILLION L. et LAPERDRIX K., Autres courants,
2015.
- 'Prague, éd. : Peter Lang, , (2011), "Dean Martin", pr + 20 ill.. Gale, DANGOUMAU
et Lorita, STREIFF, Petronella, MONTIALOUX, Montgomery, D AUBERT.'
- Valerie, PAIRA, Niles, AUDUBERT, 1986, Au gré des saisons, Amsterdam, Routledge.
- source_sentence: 1948, Seattle, éd. Payot & Rivages, de Trudy, SAINT-AIME, Toponymes
finnois et germaniques en Lithuanie... Remarques sur le nom de la Vistule.
sentences:
- Toponymes finnois et germaniques en Lithuanie... Remarques sur le nom de la Vistule,
en 1952, Seattle, Payot & Rivages éditions, Delia, HOZE.
- Cologne, Les Belles Lettres, Éléments de géométrie expérimentale, à l'usage des
élèves des cours professionnels et des ouvriers, avec de nombreuses applications
au trait, LAGEIX, Shelly, (1898).
- 1887., The variations of glaciers. XVI, Jessika, ANNIEL, Chisinau, éd. Stanford
University Press.
- source_sentence: BENMAMAR, A. et LUZEUX, K., JARRAND-MARTIN, S., "La science alchimique",
Master drawings, numéro 92, pages 511-649, 1904, Valence, éd. Zed Books.
sentences:
- Dublin, éd. CNRS, Les mystères de la cour de Cornouailles, N. BILLEBEAU, en 1966.
- En 1939, New York, Fayard, réactions et méthodes nouvelles d'analyse qualitative
minérale, BERTIER, R.
- édité en 2020, Alexandre, GLERAND et Ashleigh, BIZET, "Un long voyage", Reims,
Editions Payot éditions.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy
- cosine_accuracy_threshold
- cosine_f1
- cosine_f1_threshold
- cosine_precision
- cosine_recall
- cosine_ap
- cosine_mcc
model-index:
- name: SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2
results:
- task:
type: binary-classification
name: Binary Classification
dataset:
name: eval
type: eval
metrics:
- type: cosine_accuracy
value: 0.9845532980795992
name: Cosine Accuracy
- type: cosine_accuracy_threshold
value: 0.7197951674461365
name: Cosine Accuracy Threshold
- type: cosine_f1
value: 0.9822371579452713
name: Cosine F1
- type: cosine_f1_threshold
value: 0.7197951674461365
name: Cosine F1 Threshold
- type: cosine_precision
value: 0.9880875724404379
name: Cosine Precision
- type: cosine_recall
value: 0.9764556156538339
name: Cosine Recall
- type: cosine_ap
value: 0.9978040298718638
name: Cosine Ap
- type: cosine_mcc
value: 0.9686262528236084
name: Cosine Mcc
- task:
type: binary-classification
name: Binary Classification
dataset:
name: test
type: test
metrics:
- type: cosine_accuracy
value: 0.9851563224788942
name: Cosine Accuracy
- type: cosine_accuracy_threshold
value: 0.7434847354888916
name: Cosine Accuracy Threshold
- type: cosine_f1
value: 0.9829406120055443
name: Cosine F1
- type: cosine_f1_threshold
value: 0.7414178252220154
name: Cosine F1 Threshold
- type: cosine_precision
value: 0.9907576571735626
name: Cosine Precision
- type: cosine_recall
value: 0.975245953665503
name: Cosine Recall
- type: cosine_ap
value: 0.9978710556305371
name: Cosine Ap
- type: cosine_mcc
value: 0.9698992765132763
name: Cosine Mcc
---
# SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) <!-- at revision c9745ed1d9f207416be6d2e6f8de32d1f16199bf -->
- **Maximum Sequence Length:** 256 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'BENMAMAR, A. et LUZEUX, K., JARRAND-MARTIN, S., "La science alchimique", Master drawings, numéro 92, pages 511-649, 1904, Valence, éd. Zed Books.',
'édité en 2020, Alexandre, GLERAND et Ashleigh, BIZET, "Un long voyage", Reims, Editions Payot éditions.',
'Dublin, éd. CNRS, Les mystères de la cour de Cornouailles, N. BILLEBEAU, en 1966.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Binary Classification
* Datasets: `eval` and `test`
* Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
| Metric | eval | test |
|:--------------------------|:-----------|:-----------|
| cosine_accuracy | 0.9846 | 0.9852 |
| cosine_accuracy_threshold | 0.7198 | 0.7435 |
| cosine_f1 | 0.9822 | 0.9829 |
| cosine_f1_threshold | 0.7198 | 0.7414 |
| cosine_precision | 0.9881 | 0.9908 |
| cosine_recall | 0.9765 | 0.9752 |
| **cosine_ap** | **0.9978** | **0.9979** |
| cosine_mcc | 0.9686 | 0.9699 |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 388,038 training samples
* Columns: <code>text1</code>, <code>text2</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | text1 | text2 | label |
|:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------|
| type | string | string | int |
| details | <ul><li>min: 17 tokens</li><li>mean: 50.25 tokens</li><li>max: 169 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 47.08 tokens</li><li>max: 128 tokens</li></ul> | <ul><li>0: ~57.00%</li><li>1: ~43.00%</li></ul> |
* Samples:
| text1 | text2 | label |
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>(1973),. 70, p. 36-98, Revue d'histoire locale (Chevillon), 3, « La Font perduda », Berlin, éd. Maison des Sciences de l’Homme, editor Dorcas, PEDEVILLA, Alannis, GRANZOTTO, Annabel, VOYRON, Dulcie, MIGLIORI.</code> | <code>Revue d'histoire locale (Chevillon)</code> | <code>0</code> |
| <code>Revista del Instituto Egipcio de Estudios Islámicos, n°100, pages 483-496, (2006), Administration et bibliothèques, CAGLAYAN, Kaden, BOULAABI, Fredrick, WORMSER, Bea, Vienne, éd. Beacon Press.</code> | <code>WORMSER, Bea, CAGLAYAN, Kaden, ed BOULAABI, Fredrick, édité en 2006, Administration et bibliothèques, Revista del Instituto Egipcio de Estudios Islámicos,. 100,. p. 483-496, Vienne, Beacon Press.</code> | <code>1</code> |
| <code>Atlantic Charter (1941), Bulletin de la Société d'Histoire et d'Archéologie de Nantes et de Loire-Atlantique,. numéro 31, pp. 997-1125, Léontine, SCHWERDROFFER, Sandford, CHUDZIK, Metz, Zed Books éditions, 1941.</code> | <code>(1941),. n° 31, Bulletin de la Société d'Histoire et d'Archéologie de Nantes et de Loire-Atlantique, pages 997-1125, Atlantic Charter (1941), Léontine, SCHWERDROFFER, Sandford, CHUDZIK, Metz, Zed Books.</code> | <code>1</code> |
* Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
```json
{
"loss_fct": "torch.nn.modules.loss.MSELoss"
}
```
### Evaluation Dataset
#### Unnamed Dataset
* Size: 21,558 evaluation samples
* Columns: <code>text1</code>, <code>text2</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | text1 | text2 | label |
|:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------|
| type | string | string | int |
| details | <ul><li>min: 15 tokens</li><li>mean: 49.64 tokens</li><li>max: 145 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 46.31 tokens</li><li>max: 160 tokens</li></ul> | <ul><li>0: ~57.70%</li><li>1: ~42.30%</li></ul> |
* Samples:
| text1 | text2 | label |
|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>Le Progressisme, aspects doctrinaux, DURAZ, Constance, 1955, Montpellier, éd. Routledge,. vol. 1,. pp. 26-39, n°29, Journal of philosophical research.</code> | <code>1955, "Le Progressisme, aspects doctrinaux", Montpellier, Routledge, Journal of philosophical research, pp. 26-39,. volume 1, #29.</code> | <code>1</code> |
| <code>Turin, éd. Suhrkamp Verlag, #17, pages 67-111, 2, Annales d'Avignon et du Comtat Venaissin, "Faire face aux crises de colère de l'enfant et de l'adolescent", ed HERREYE, Kassidy, (2019).</code> | <code>Amsterdam, University of Minnesota Press éditions, (1968), "Ainsi de chaque jour".</code> | <code>0</code> |
| <code>« Discours et conférences sur la science et ses applications », publié en 1927, Tours, éd. Actes Sud, Cherise, THIEFIN et de Eudora, FINGERHUT et Rona, DELLAL et Josette, DEGIOANNINI.</code> | <code> Les formes verbales du conditionnel dans le vieux sanskrit , Eudora, FINGERHUT et Cherise, THIEFIN et par Rona, DELLAL, par Josette, DEGIOANNINI, Tours, Actes Sud éditions, publié en 1927.</code> | <code>0</code> |
* Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
```json
{
"loss_fct": "torch.nn.modules.loss.MSELoss"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: epoch
- `per_device_train_batch_size`: 20
- `per_device_eval_batch_size`: 20
- `learning_rate`: 3e-05
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: epoch
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 20
- `per_device_eval_batch_size`: 20
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 3e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
<details><summary>Click to expand</summary>
| Epoch | Step | Training Loss | Validation Loss | eval_cosine_ap | test_cosine_ap |
|:------:|:-----:|:-------------:|:---------------:|:--------------:|:--------------:|
| -1 | -1 | - | - | 0.8231 | - |
| 0.0258 | 500 | 0.1033 | - | - | - |
| 0.0515 | 1000 | 0.0885 | - | - | - |
| 0.0773 | 1500 | 0.0778 | - | - | - |
| 0.1031 | 2000 | 0.0721 | - | - | - |
| 0.1289 | 2500 | 0.0697 | - | - | - |
| 0.1546 | 3000 | 0.0645 | - | - | - |
| 0.1804 | 3500 | 0.0619 | - | - | - |
| 0.2062 | 4000 | 0.0604 | - | - | - |
| 0.2319 | 4500 | 0.0569 | - | - | - |
| 0.2577 | 5000 | 0.0545 | - | - | - |
| 0.2835 | 5500 | 0.0539 | - | - | - |
| 0.3092 | 6000 | 0.0517 | - | - | - |
| 0.3350 | 6500 | 0.0506 | - | - | - |
| 0.3608 | 7000 | 0.0511 | - | - | - |
| 0.3866 | 7500 | 0.0486 | - | - | - |
| 0.4123 | 8000 | 0.0463 | - | - | - |
| 0.4381 | 8500 | 0.0463 | - | - | - |
| 0.4639 | 9000 | 0.0471 | - | - | - |
| 0.4896 | 9500 | 0.0454 | - | - | - |
| 0.5154 | 10000 | 0.0445 | - | - | - |
| 0.5412 | 10500 | 0.0455 | - | - | - |
| 0.5670 | 11000 | 0.0441 | - | - | - |
| 0.5927 | 11500 | 0.0437 | - | - | - |
| 0.6185 | 12000 | 0.0449 | - | - | - |
| 0.6443 | 12500 | 0.0413 | - | - | - |
| 0.6700 | 13000 | 0.0413 | - | - | - |
| 0.6958 | 13500 | 0.0422 | - | - | - |
| 0.7216 | 14000 | 0.0411 | - | - | - |
| 0.7473 | 14500 | 0.0404 | - | - | - |
| 0.7731 | 15000 | 0.0374 | - | - | - |
| 0.7989 | 15500 | 0.0378 | - | - | - |
| 0.8247 | 16000 | 0.0384 | - | - | - |
| 0.8504 | 16500 | 0.0389 | - | - | - |
| 0.8762 | 17000 | 0.0377 | - | - | - |
| 0.9020 | 17500 | 0.0374 | - | - | - |
| 0.9277 | 18000 | 0.0366 | - | - | - |
| 0.9535 | 18500 | 0.0368 | - | - | - |
| 0.9793 | 19000 | 0.0367 | - | - | - |
| 1.0 | 19402 | - | 0.0310 | 0.9965 | - |
| 1.0051 | 19500 | 0.0364 | - | - | - |
| 1.0308 | 20000 | 0.0323 | - | - | - |
| 1.0566 | 20500 | 0.0319 | - | - | - |
| 1.0824 | 21000 | 0.0317 | - | - | - |
| 1.1081 | 21500 | 0.0298 | - | - | - |
| 1.1339 | 22000 | 0.0336 | - | - | - |
| 1.1597 | 22500 | 0.0304 | - | - | - |
| 1.1854 | 23000 | 0.0302 | - | - | - |
| 1.2112 | 23500 | 0.031 | - | - | - |
| 1.2370 | 24000 | 0.0301 | - | - | - |
| 1.2628 | 24500 | 0.0302 | - | - | - |
| 1.2885 | 25000 | 0.0305 | - | - | - |
| 1.3143 | 25500 | 0.0293 | - | - | - |
| 1.3401 | 26000 | 0.0307 | - | - | - |
| 1.3658 | 26500 | 0.0304 | - | - | - |
| 1.3916 | 27000 | 0.03 | - | - | - |
| 1.4174 | 27500 | 0.0312 | - | - | - |
| 1.4432 | 28000 | 0.0296 | - | - | - |
| 1.4689 | 28500 | 0.0301 | - | - | - |
| 1.4947 | 29000 | 0.0295 | - | - | - |
| 1.5205 | 29500 | 0.0295 | - | - | - |
| 1.5462 | 30000 | 0.029 | - | - | - |
| 1.5720 | 30500 | 0.0295 | - | - | - |
| 1.5978 | 31000 | 0.029 | - | - | - |
| 1.6235 | 31500 | 0.029 | - | - | - |
| 1.6493 | 32000 | 0.0271 | - | - | - |
| 1.6751 | 32500 | 0.029 | - | - | - |
| 1.7009 | 33000 | 0.0278 | - | - | - |
| 1.7266 | 33500 | 0.0286 | - | - | - |
| 1.7524 | 34000 | 0.0272 | - | - | - |
| 1.7782 | 34500 | 0.0279 | - | - | - |
| 1.8039 | 35000 | 0.0285 | - | - | - |
| 1.8297 | 35500 | 0.0286 | - | - | - |
| 1.8555 | 36000 | 0.0297 | - | - | - |
| 1.8812 | 36500 | 0.0273 | - | - | - |
| 1.9070 | 37000 | 0.0269 | - | - | - |
| 1.9328 | 37500 | 0.0276 | - | - | - |
| 1.9586 | 38000 | 0.0278 | - | - | - |
| 1.9843 | 38500 | 0.0267 | - | - | - |
| 2.0 | 38804 | - | 0.0248 | 0.9976 | - |
| 2.0101 | 39000 | 0.0252 | - | - | - |
| 2.0359 | 39500 | 0.0233 | - | - | - |
| 2.0616 | 40000 | 0.0233 | - | - | - |
| 2.0874 | 40500 | 0.0236 | - | - | - |
| 2.1132 | 41000 | 0.023 | - | - | - |
| 2.1390 | 41500 | 0.0212 | - | - | - |
| 2.1647 | 42000 | 0.0233 | - | - | - |
| 2.1905 | 42500 | 0.0227 | - | - | - |
| 2.2163 | 43000 | 0.0227 | - | - | - |
| 2.2420 | 43500 | 0.0233 | - | - | - |
| 2.2678 | 44000 | 0.0241 | - | - | - |
| 2.2936 | 44500 | 0.0218 | - | - | - |
| 2.3193 | 45000 | 0.0232 | - | - | - |
| 2.3451 | 45500 | 0.0235 | - | - | - |
| 2.3709 | 46000 | 0.024 | - | - | - |
| 2.3967 | 46500 | 0.0237 | - | - | - |
| 2.4224 | 47000 | 0.0228 | - | - | - |
| 2.4482 | 47500 | 0.0231 | - | - | - |
| 2.4740 | 48000 | 0.0223 | - | - | - |
| 2.4997 | 48500 | 0.0232 | - | - | - |
| 2.5255 | 49000 | 0.022 | - | - | - |
| 2.5513 | 49500 | 0.0227 | - | - | - |
| 2.5771 | 50000 | 0.0226 | - | - | - |
| 2.6028 | 50500 | 0.0233 | - | - | - |
| 2.6286 | 51000 | 0.0224 | - | - | - |
| 2.6544 | 51500 | 0.0224 | - | - | - |
| 2.6801 | 52000 | 0.0224 | - | - | - |
| 2.7059 | 52500 | 0.022 | - | - | - |
| 2.7317 | 53000 | 0.0223 | - | - | - |
| 2.7574 | 53500 | 0.023 | - | - | - |
| 2.7832 | 54000 | 0.023 | - | - | - |
| 2.8090 | 54500 | 0.023 | - | - | - |
| 2.8348 | 55000 | 0.0225 | - | - | - |
| 2.8605 | 55500 | 0.0229 | - | - | - |
| 2.8863 | 56000 | 0.0229 | - | - | - |
| 2.9121 | 56500 | 0.0224 | - | - | - |
| 2.9378 | 57000 | 0.0218 | - | - | - |
| 2.9636 | 57500 | 0.0226 | - | - | - |
| 2.9894 | 58000 | 0.0229 | - | - | - |
| 3.0 | 58206 | - | 0.0231 | 0.9978 | - |
| -1 | -1 | - | - | - | 0.9979 |
</details>
### Framework Versions
- Python: 3.12.0
- Sentence Transformers: 4.1.0
- Transformers: 4.52.4
- PyTorch: 2.7.1+cu128
- Accelerate: 1.8.1
- Datasets: 3.6.0
- Tokenizers: 0.21.2
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
lautan/blockassist-bc-gentle_patterned_goat_1755673896
|
lautan
| 2025-08-20T07:39:59Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"gentle patterned goat",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:39:55Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- gentle patterned goat
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
unitova/blockassist-bc-zealous_sneaky_raven_1755673926
|
unitova
| 2025-08-20T07:39:47Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"zealous sneaky raven",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:39:44Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- zealous sneaky raven
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
chowshib/blockassist-bc-majestic_melodic_beaver_1755675476
|
chowshib
| 2025-08-20T07:39:27Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"majestic melodic beaver",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:39:16Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- majestic melodic beaver
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Gemneye/Gabby
|
Gemneye
| 2025-08-20T07:37:29Z | 0 | 0 |
diffusers
|
[
"diffusers",
"text-to-image",
"lora",
"template:diffusion-lora",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:apache-2.0",
"region:us"
] |
text-to-image
| 2025-08-20T07:16:23Z |
---
tags:
- text-to-image
- lora
- diffusers
- template:diffusion-lora
widget:
- output:
url: images/gabby-043.jpg
text: '-'
- output:
url: images/Gabby-001.jpg
text: >-
🟨 Scene Setup
Location: Tokyo Tower
Time of Day / Lighting: Sunset with warm golden light
Mood / Atmosphere: Romantic and serene
Camera Type: DSLR
Lens Type: 50mm
Aperture & Depth of Field: f/1.8, shallow depth of field
Camera Angle & Framing: Low angle, close-up
🟩 Subject Description
Age / Ethnicity / Gender: Young adult, mixed race, female
Hair: Curly brown hair
Eyes: Dark brown eyes
Clothing & Accessories: Red dress
Pose / Body Language: Standing confidently
Facial Expression: Soft smile
Skin Details / Texture: Smooth, natural glow
🟦 Background & Environmental Detail
Foreground Elements: Blurred city lights
Midground Composition: Tokyo Tower
Background Elements: Skyline with soft clouds
Lighting Effects: Warm glow, lens flare
Color, Materials, Texture: Vibrant reds, soft golds
🟪 Style & Realism Enhancers
Style Reference / Genre: Fashion photography
Realism Tags: High focus, realistic lighting, detailed anatomy, lifelike texture
base_model: black-forest-labs/FLUX.1-dev
instance_prompt: G@bby
license: apache-2.0
---
# Gabby
<Gallery />
## Model description
Gabby trained with AI-toolkit
## Trigger words
You should use `G@bby` to trigger the image generation.
## Download model
[Download](/Gemneye/Gabby/tree/main) them in the Files & versions tab.
|
Adun/openai-gpt-oss-20b-thaifood
|
Adun
| 2025-08-20T07:37:20Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"gpt_oss",
"trl",
"en",
"base_model:unsloth/gpt-oss-20b-unsloth-bnb-4bit",
"base_model:finetune:unsloth/gpt-oss-20b-unsloth-bnb-4bit",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T07:37:15Z |
---
base_model: unsloth/gpt-oss-20b-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- gpt_oss
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** Adun
- **License:** apache-2.0
- **Finetuned from model :** unsloth/gpt-oss-20b-unsloth-bnb-4bit
This gpt_oss model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
nema122/blockassist-bc-robust_fluffy_ram_1755675206
|
nema122
| 2025-08-20T07:35:04Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"robust fluffy ram",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:34:57Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- robust fluffy ram
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
arianaazarbal/standard_tpr_0.65_test-20250820_070706-rm-adapter
|
arianaazarbal
| 2025-08-20T07:34:41Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-08-20T07:34:08Z |
# Reward Model LoRA Adapter
Experiment: standard_tpr_0.65_test
Timestamp: 20250820_070706
This model was trained as part of the deception-evasion-honesty experiments.
## Model Details
- **Type**: Reward Model LoRA Adapter
- **Experiment Name**: standard_tpr_0.65_test
- **Training Timestamp**: 20250820_070706
|
arianaazarbal/standard_tpr_0.65_test-20250820_070706-sft-adapter
|
arianaazarbal
| 2025-08-20T07:34:07Z | 0 | 0 | null |
[
"pytorch",
"region:us"
] | null | 2025-08-20T07:33:08Z |
# SFT LoRA Adapter
Experiment: standard_tpr_0.65_test
Timestamp: 20250820_070706
This model was trained as part of the deception-evasion-honesty experiments.
## Model Details
- **Type**: SFT LoRA Adapter
- **Experiment Name**: standard_tpr_0.65_test
- **Training Timestamp**: 20250820_070706
|
chainway9/blockassist-bc-untamed_quick_eel_1755673482
|
chainway9
| 2025-08-20T07:29:56Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"untamed quick eel",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:29:53Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- untamed quick eel
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
JonusNattapong/thai-bpe-tokenizer
|
JonusNattapong
| 2025-08-20T07:24:56Z | 0 | 0 |
transformers
|
[
"transformers",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T07:24:55Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
choliddnr/MyGemmaNPC
|
choliddnr
| 2025-08-20T07:24:48Z | 0 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"gemma3_text",
"text-generation",
"generated_from_trainer",
"trl",
"sft",
"conversational",
"base_model:google/gemma-3-270m-it",
"base_model:finetune:google/gemma-3-270m-it",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-20T07:22:00Z |
---
base_model: google/gemma-3-270m-it
library_name: transformers
model_name: MyGemmaNPC
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for MyGemmaNPC
This model is a fine-tuned version of [google/gemma-3-270m-it](https://huggingface.co/google/gemma-3-270m-it).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="choliddnr/MyGemmaNPC", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0+cu126
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
yaelahnal/blockassist-bc-mute_clawed_crab_1755674429
|
yaelahnal
| 2025-08-20T07:21:37Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"mute clawed crab",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:21:18Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- mute clawed crab
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
vayishu/visa-minilm
|
vayishu
| 2025-08-20T07:20:26Z | 0 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"bert",
"sentence-similarity",
"feature-extraction",
"dense",
"generated_from_trainer",
"dataset_size:1000",
"loss:TripletLoss",
"arxiv:1908.10084",
"arxiv:1703.07737",
"base_model:sentence-transformers/all-MiniLM-L6-v2",
"base_model:finetune:sentence-transformers/all-MiniLM-L6-v2",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-08-20T07:04:31Z |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:1000
- loss:TripletLoss
base_model: sentence-transformers/all-MiniLM-L6-v2
widget:
- source_sentence: What are the key points in passage fam_402.10_30?
sentences:
- ( v ) A dependent applying under [ paragraph ( s)(2 ) ( iii)](/current / title-8
/ section-214.2#p-214.2(s)(2)(iii ) ) or [ ( iv)](/current / title-8 / section-214.2#p-214.2(s)(2)(iv
) ) of this section must also submit a certified statement from the post - secondary
educational institution confirming that he or she is pursuing studies on a full
- time basis .
- "( b ) ( U ) The criteria for \n qualifying as an H-1B physician are found in\
\ subparagraph 3 below ."
- ( ii ) * What are the requirements for participation ? *
- source_sentence: What are the key points in passage 8cfr_214.3_93?
sentences:
- ( vii ) Whether the student has been certified for practical training , and the
beginning and end dates of certification .
- ( D ) Similarity of jobs and working conditions ;
- ( ii ) * What are the requirements for participation ? *
- source_sentence: Explain the significance of passage fam_402_62.
sentences:
- ( * i * ) Has competency in oral and written English which shall be demonstrated
by the passage of the English language proficiency test given by the Educational
Commission for Foreign Medical Graduates ; or
- "Derivative beneficiaries are entitled to apply for visas to \n follow and/or\
\ join principals who are maintaining status in the United States , \n even when\
\ the principal was never issued a visa in the classification being \n sought\
\ by the dependent . Take , for instance , a world - class soccer player , who\
\ \n changes their status from F-1 to O-1 . The spouse and/or children are entitled\
\ \n to apply for nonimmigrant O-3 visas . Typical documentation for establishing\
\ \n entitlement to visas in such an instance might include marriage and birth\
\ \n certificates for the spouse and dependent(s ) , a copy of the principal \n\
\ beneficiary 's approval notice , and any Form I-797 , Notice of Action notices\
\ \n relating to the dependents ' own change of status filings . Another example\
\ \n would be a foreign national who entered the United States on a B-1 visa and\
\ \n subsequently changed status to F-1 . The spouse and/or child of the F-1\
\ would \n be entitled to seek F-2 visas . In such cases , the dependent would\
\ need to \n present a properly endorsed Form I-20 , Certificate of Eligibility\
\ for \n Nonimmigrant ( F-1 ) Student Status - for Academic and Language Students\
\ , as \n evidence that the principal is enrolled , or will be enrolled within\
\ 60 days , in \n a full course of study or is in approved practical training\
\ ."
- ( 1 ) Meaning of term * Designated Official . * As used in [ § § 214.2(f)](/current
/ title-8 / section-214.2#p-214.2(f ) ) and [ ( m)](/current / title-8 / section-214.2#p-214.2(m
) ) , [ 214.3](/current / title-8 / section-214.3 ) and [ 214.4](/current / title-8
/ section-214.4 ) , a * Designated Official , Designated School Official ( DSO
) , * or * Principal Designated School Official ( PDSO ) , * means a regularly
employed member of the school administration whose office is located at the school
and whose compensation does not come from commissions for recruitment of foreign
students . An individual whose principal obligation to the school is to recruit
foreign students for compensation does not qualify as a designated official .
The PDSO and any other DSO must be named by the president , owner , or head of
a school or school system . The PDSO and DSO may not delegate this designation
to any other person .
- source_sentence: What is the main topic of passage fam_402.9_141?
sentences:
- "( 1 ) The title of the position to which the applicant \n is destined , its\
\ place in the firm 's organizational structure , the duties \n of the position\
\ , the degree to which the applicant will have ultimate control \n and responsibility\
\ for the firm 's overall operations or a major component \n thereof , the number\
\ and skill levels of the employees the applicant will \n supervise , the level\
\ of pay , and whether the applicant possesses qualifying \n executive or supervisory\
\ experience ;"
- describes methods of oversight and supervision . The Form I-983 must explain how
the training is directly related to the student 's qualifying STEM degree .
- ( A ) A nurse who is granted H-1C classification based on passage of the CGFNS
examination must , upon admission to the United States , be able to obtain temporary
licensure or other temporary authorization to practice as a registered nurse from
the State Board of Nursing in the state of intended employment .
- source_sentence: Explain the significance of passage uscis_pm_volume_2_part_f_chapter_7_1.
sentences:
- ( C ) A common formal code of doctrine and discipline ;
- ( * i * ) Has competency in oral and written English which shall be demonstrated
by the passage of the English language proficiency test given by the Educational
Commission for Foreign Medical Graduates ; or
- Chapter 7 - Absences From the United States | USCIS
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) <!-- at revision c9745ed1d9f207416be6d2e6f8de32d1f16199bf -->
- **Maximum Sequence Length:** 256 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'BertModel'})
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("vayishu/visa-minilm")
# Run inference
sentences = [
'Explain the significance of passage uscis_pm_volume_2_part_f_chapter_7_1.',
'Chapter 7 - Absences From the United States | USCIS',
'( * i * ) Has competency in oral and written English which shall be demonstrated by the passage of the English language proficiency test given by the Educational Commission for Foreign Medical Graduates ; or',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.3954, 0.4014],
# [0.3954, 1.0000, 0.1409],
# [0.4014, 0.1409, 1.0000]])
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 1,000 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>sentence_2</code>
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | sentence_2 |
|:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 14 tokens</li><li>mean: 20.62 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 74.9 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 14 tokens</li><li>mean: 48.16 tokens</li><li>max: 143 tokens</li></ul> |
* Samples:
| sentence_0 | sentence_1 | sentence_2 |
|:--------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>Explain the significance of passage 8cfr_214.1_85.</code> | <code># # # # § 214.1 Requirements for admission , extension , and maintenance of status .</code> | <code>( * 5 * ) Evidence of the alien 's original scientific , scholarly , or business - related contributions of major significance in the field ;</code> |
| <code>Can you summarize the content of passage 8cfr_214.2_1843?</code> | <code>( C ) A common formal code of doctrine and discipline ;</code> | <code>The Office of the Federal Register publishes documents on behalf of Federal agencies but does not have any authority over their programs . We recommend you directly contact the agency associated with the content in question .</code> |
| <code>What is the main topic of passage uscis_pm_volume_2_part_f_chapter_5_85?</code> | <code>If the [ Form I-765](/i-765 ) for the STEM OPT extension is denied and the student 's post - completion OPT EAD is expired , OPT employment authorization ends on the date of the decision and the student 's F-1 status ends 60 days after the date of denial . If the Form I-765 for the STEM OPT extension is denied and the student 's post - completion OPT EAD is unexpired , the student will remain employment authorized until the expiration date of the EAD .</code> | <code>( A ) A nurse who is granted H-1C classification based on passage of the CGFNS examination must , upon admission to the United States , be able to obtain temporary licensure or other temporary authorization to practice as a registered nurse from the State Board of Nursing in the state of intended employment .</code> |
* Loss: [<code>TripletLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#tripletloss) with these parameters:
```json
{
"distance_metric": "TripletDistanceMetric.EUCLIDEAN",
"triplet_margin": 5
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `num_train_epochs`: 1
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: round_robin
- `router_mapping`: {}
- `learning_rate_mapping`: {}
</details>
### Framework Versions
- Python: 3.12.11
- Sentence Transformers: 5.1.0
- Transformers: 4.55.2
- PyTorch: 2.8.0+cu128
- Accelerate: 1.10.0
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### TripletLoss
```bibtex
@misc{hermans2017defense,
title={In Defense of the Triplet Loss for Person Re-Identification},
author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
year={2017},
eprint={1703.07737},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
Tn1072/my_awesome_video_cls_model
|
Tn1072
| 2025-08-20T07:20:08Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"videomae",
"video-classification",
"generated_from_trainer",
"base_model:MCG-NJU/videomae-base",
"base_model:finetune:MCG-NJU/videomae-base",
"license:cc-by-nc-4.0",
"endpoints_compatible",
"region:us"
] |
video-classification
| 2025-08-20T07:19:51Z |
---
library_name: transformers
license: cc-by-nc-4.0
base_model: MCG-NJU/videomae-base
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: my_awesome_video_cls_model
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# my_awesome_video_cls_model
This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.1236
- Accuracy: 0.5571
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|
| 1.0641 | 1.0 | 300 | 1.1236 | 0.5571 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
rettertop/blockassist-bc-fanged_striped_shrimp_1755674389
|
rettertop
| 2025-08-20T07:19:58Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"fanged striped shrimp",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:19:49Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- fanged striped shrimp
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rettertop/blockassist-bc-lithe_hulking_wasp_1755674345
|
rettertop
| 2025-08-20T07:19:15Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"lithe hulking wasp",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:19:06Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- lithe hulking wasp
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rettertop/blockassist-bc-tangled_skittish_finch_1755674303
|
rettertop
| 2025-08-20T07:18:31Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"tangled skittish finch",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:18:24Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- tangled skittish finch
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
nema122/blockassist-bc-robust_fluffy_ram_1755674200
|
nema122
| 2025-08-20T07:18:31Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"robust fluffy ram",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:18:23Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- robust fluffy ram
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755672736
|
lisaozill03
| 2025-08-20T07:18:10Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rugged prickly alpaca",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:18:06Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rugged prickly alpaca
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rettertop/blockassist-bc-small_vigilant_wildebeest_1755674262
|
rettertop
| 2025-08-20T07:17:49Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"small vigilant wildebeest",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:17:42Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- small vigilant wildebeest
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Kokoutou/soundsright_dn_2008_3
|
Kokoutou
| 2025-08-20T07:16:49Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-08-20T07:02:41Z |
# Container Template for SoundsRight Subnet Miners
This repository contains a contanierized version of [SGMSE+](https://huggingface.co/sp-uhh/speech-enhancement-sgmse) and serves as a tutorial for miners to format their models on [Bittensor's](https://bittensor.com/) [SoundsRight Subnet](https://github.com/synapsec-ai/SoundsRightSubnet). The branches `DENOISING_16000HZ` and `DEREVERBERATION_16000HZ` contain SGMSE fitted with the approrpriate checkpoints for denoising and dereverberation tasks at 16kHz, respectively.
This container has only been tested with **Ubuntu 24.04** and **CUDA 12.6**. It may run on other configurations, but it is not guaranteed.
To run the container, first configure NVIDIA Container Toolkit and generate a CDI specification. Follow the instructions to download the [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) with Apt.
Next, follow the instructions for [generating a CDI specification](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/cdi-support.html).
Verify that the CDI specification was done correctly with:
```
$ nvidia-ctk cdi list
```
You should see this in your output:
```
nvidia.com/gpu=all
nvidia.com/gpu=0
```
If you are running podman as root, run the following command to start the container:
Run the container with:
```
podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --user root --name modelapi -p 6500:6500 modelapi
```
Access logs with:
```
podman logs -f modelapi
```
If you are running the container rootless, there are a few more changes to make:
First, modify `/etc/nvidia-container-runtime/config.toml` and set the following parameters:
```
[nvidia-container-cli]
no-cgroups = true
[nvidia-container-runtime]
debug = "/tmp/nvidia-container-runtime.log"
```
You can also run the following command to achieve the same result:
```
$ sudo nvidia-ctk config --set nvidia-container-cli.no-cgroups --in-place
```
Run the container with:
```
podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --volume /usr/local/cuda-12.6:/usr/local/cuda-12.6 --user 10002:10002 --name modelapi -p 6500:6500 modelapi
```
Access logs with:
```
podman logs -f modelapi
```
Running the container will spin up an API with the following endpoints:
1. `/status/` : Communicates API status
2. `/prepare/` : Download model checkpoint and initialize model
3. `/upload-audio/` : Upload audio files, save to noisy audio directory
4. `/enhance/` : Initialize model, enhance audio files, save to enhanced audio directory
5. `/download-enhanced/` : Download enhanced audio files
By default the API will use host `0.0.0.0` and port `6500`.
### References
1. **Welker, Simon; Richter, Julius; Gerkmann, Timo**
*Speech Enhancement with Score-Based Generative Models in the Complex STFT Domain*.
Proceedings of *Interspeech 2022*, 2022, pp. 2928–2932.
[DOI: 10.21437/Interspeech.2022-10653](https://doi.org/10.21437/Interspeech.2022-10653)
2. **Richter, Julius; Welker, Simon; Lemercier, Jean-Marie; Lay, Bunlong; Gerkmann, Timo**
*Speech Enhancement and Dereverberation with Diffusion-based Generative Models*.
*IEEE/ACM Transactions on Audio, Speech, and Language Processing*, Vol. 31, 2023, pp. 2351–2364.
[DOI: 10.1109/TASLP.2023.3285241](https://doi.org/10.1109/TASLP.2023.3285241)
3. **Richter, Julius; Wu, Yi-Chiao; Krenn, Steven; Welker, Simon; Lay, Bunlong; Watanabe, Shinjii; Richard, Alexander; Gerkmann, Timo**
*EARS: An Anechoic Fullband Speech Dataset Benchmarked for Speech Enhancement and Dereverberation*.
Proceedings of *ISCA Interspeech*, 2024, pp. 4873–4877.
|
Kokoutou/soundsright_dn_2008_2
|
Kokoutou
| 2025-08-20T07:16:44Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-08-20T07:02:41Z |
# Container Template for SoundsRight Subnet Miners
This repository contains a contanierized version of [SGMSE+](https://huggingface.co/sp-uhh/speech-enhancement-sgmse) and serves as a tutorial for miners to format their models on [Bittensor's](https://bittensor.com/) [SoundsRight Subnet](https://github.com/synapsec-ai/SoundsRightSubnet). The branches `DENOISING_16000HZ` and `DEREVERBERATION_16000HZ` contain SGMSE fitted with the approrpriate checkpoints for denoising and dereverberation tasks at 16kHz, respectively.
This container has only been tested with **Ubuntu 24.04** and **CUDA 12.6**. It may run on other configurations, but it is not guaranteed.
To run the container, first configure NVIDIA Container Toolkit and generate a CDI specification. Follow the instructions to download the [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) with Apt.
Next, follow the instructions for [generating a CDI specification](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/cdi-support.html).
Verify that the CDI specification was done correctly with:
```
$ nvidia-ctk cdi list
```
You should see this in your output:
```
nvidia.com/gpu=all
nvidia.com/gpu=0
```
If you are running podman as root, run the following command to start the container:
Run the container with:
```
podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --user root --name modelapi -p 6500:6500 modelapi
```
Access logs with:
```
podman logs -f modelapi
```
If you are running the container rootless, there are a few more changes to make:
First, modify `/etc/nvidia-container-runtime/config.toml` and set the following parameters:
```
[nvidia-container-cli]
no-cgroups = true
[nvidia-container-runtime]
debug = "/tmp/nvidia-container-runtime.log"
```
You can also run the following command to achieve the same result:
```
$ sudo nvidia-ctk config --set nvidia-container-cli.no-cgroups --in-place
```
Run the container with:
```
podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --volume /usr/local/cuda-12.6:/usr/local/cuda-12.6 --user 10002:10002 --name modelapi -p 6500:6500 modelapi
```
Access logs with:
```
podman logs -f modelapi
```
Running the container will spin up an API with the following endpoints:
1. `/status/` : Communicates API status
2. `/prepare/` : Download model checkpoint and initialize model
3. `/upload-audio/` : Upload audio files, save to noisy audio directory
4. `/enhance/` : Initialize model, enhance audio files, save to enhanced audio directory
5. `/download-enhanced/` : Download enhanced audio files
By default the API will use host `0.0.0.0` and port `6500`.
### References
1. **Welker, Simon; Richter, Julius; Gerkmann, Timo**
*Speech Enhancement with Score-Based Generative Models in the Complex STFT Domain*.
Proceedings of *Interspeech 2022*, 2022, pp. 2928–2932.
[DOI: 10.21437/Interspeech.2022-10653](https://doi.org/10.21437/Interspeech.2022-10653)
2. **Richter, Julius; Welker, Simon; Lemercier, Jean-Marie; Lay, Bunlong; Gerkmann, Timo**
*Speech Enhancement and Dereverberation with Diffusion-based Generative Models*.
*IEEE/ACM Transactions on Audio, Speech, and Language Processing*, Vol. 31, 2023, pp. 2351–2364.
[DOI: 10.1109/TASLP.2023.3285241](https://doi.org/10.1109/TASLP.2023.3285241)
3. **Richter, Julius; Wu, Yi-Chiao; Krenn, Steven; Welker, Simon; Lay, Bunlong; Watanabe, Shinjii; Richard, Alexander; Gerkmann, Timo**
*EARS: An Anechoic Fullband Speech Dataset Benchmarked for Speech Enhancement and Dereverberation*.
Proceedings of *ISCA Interspeech*, 2024, pp. 4873–4877.
|
Kokoutou/soundsright_dn_2008_1
|
Kokoutou
| 2025-08-20T07:16:35Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-08-20T07:02:41Z |
# Container Template for SoundsRight Subnet Miners
This repository contains a contanierized version of [SGMSE+](https://huggingface.co/sp-uhh/speech-enhancement-sgmse) and serves as a tutorial for miners to format their models on [Bittensor's](https://bittensor.com/) [SoundsRight Subnet](https://github.com/synapsec-ai/SoundsRightSubnet). The branches `DENOISING_16000HZ` and `DEREVERBERATION_16000HZ` contain SGMSE fitted with the approrpriate checkpoints for denoising and dereverberation tasks at 16kHz, respectively.
This container has only been tested with **Ubuntu 24.04** and **CUDA 12.6**. It may run on other configurations, but it is not guaranteed.
To run the container, first configure NVIDIA Container Toolkit and generate a CDI specification. Follow the instructions to download the [NVIDIA Container Toolkit](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html) with Apt.
Next, follow the instructions for [generating a CDI specification](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/cdi-support.html).
Verify that the CDI specification was done correctly with:
```
$ nvidia-ctk cdi list
```
You should see this in your output:
```
nvidia.com/gpu=all
nvidia.com/gpu=0
```
If you are running podman as root, run the following command to start the container:
Run the container with:
```
podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --user root --name modelapi -p 6500:6500 modelapi
```
Access logs with:
```
podman logs -f modelapi
```
If you are running the container rootless, there are a few more changes to make:
First, modify `/etc/nvidia-container-runtime/config.toml` and set the following parameters:
```
[nvidia-container-cli]
no-cgroups = true
[nvidia-container-runtime]
debug = "/tmp/nvidia-container-runtime.log"
```
You can also run the following command to achieve the same result:
```
$ sudo nvidia-ctk config --set nvidia-container-cli.no-cgroups --in-place
```
Run the container with:
```
podman build -t modelapi . && podman run -d --device nvidia.com/gpu=all --volume /usr/local/cuda-12.6:/usr/local/cuda-12.6 --user 10002:10002 --name modelapi -p 6500:6500 modelapi
```
Access logs with:
```
podman logs -f modelapi
```
Running the container will spin up an API with the following endpoints:
1. `/status/` : Communicates API status
2. `/prepare/` : Download model checkpoint and initialize model
3. `/upload-audio/` : Upload audio files, save to noisy audio directory
4. `/enhance/` : Initialize model, enhance audio files, save to enhanced audio directory
5. `/download-enhanced/` : Download enhanced audio files
By default the API will use host `0.0.0.0` and port `6500`.
### References
1. **Welker, Simon; Richter, Julius; Gerkmann, Timo**
*Speech Enhancement with Score-Based Generative Models in the Complex STFT Domain*.
Proceedings of *Interspeech 2022*, 2022, pp. 2928–2932.
[DOI: 10.21437/Interspeech.2022-10653](https://doi.org/10.21437/Interspeech.2022-10653)
2. **Richter, Julius; Welker, Simon; Lemercier, Jean-Marie; Lay, Bunlong; Gerkmann, Timo**
*Speech Enhancement and Dereverberation with Diffusion-based Generative Models*.
*IEEE/ACM Transactions on Audio, Speech, and Language Processing*, Vol. 31, 2023, pp. 2351–2364.
[DOI: 10.1109/TASLP.2023.3285241](https://doi.org/10.1109/TASLP.2023.3285241)
3. **Richter, Julius; Wu, Yi-Chiao; Krenn, Steven; Welker, Simon; Lay, Bunlong; Watanabe, Shinjii; Richard, Alexander; Gerkmann, Timo**
*EARS: An Anechoic Fullband Speech Dataset Benchmarked for Speech Enhancement and Dereverberation*.
Proceedings of *ISCA Interspeech*, 2024, pp. 4873–4877.
|
second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF
|
second-state
| 2025-08-20T07:16:05Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"qwen3_moe",
"text-generation",
"base_model:Qwen/Qwen3-Coder-30B-A3B-Instruct",
"base_model:quantized:Qwen/Qwen3-Coder-30B-A3B-Instruct",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us",
"conversational"
] |
text-generation
| 2025-08-20T02:43:18Z |
---
base_model: Qwen/Qwen3-Coder-30B-A3B-Instruct
license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct/blob/main/LICENSE
model_creator: Qwen
model_name: Qwen3-Coder-30B-A3B-Instruct
quantized_by: Second State Inc.
pipeline_tag: text-generation
library_name: transformers
---
<!-- header start -->
<!-- 200823 -->
<div style="width: auto; margin-left: auto; margin-right: auto">
<img src="https://github.com/LlamaEdge/LlamaEdge/raw/dev/assets/logo.svg" style="width: 100%; min-width: 400px; display: block; margin: auto;">
</div>
<hr style="margin-top: 1.0em; margin-bottom: 1.0em;">
<!-- header end -->
# Qwen3-Coder-30B-A3B-Instruct-GGUF
## Original Model
[Qwen/Qwen3-Coder-30B-A3B-Instruct](https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct)
## Run with LlamaEdge
- LlamaEdge version: coming soon
<!-- - LlamaEdge version:
- Thinking: [v0.17.0](https://github.com/LlamaEdge/LlamaEdge/releases/tag/0.17.0) and above
- No Thinking: [v0.18.2](https://github.com/LlamaEdge/LlamaEdge/releases/tag/0.18.2) -->
- Prompt template
- Prompt type: `chatml`
- Prompt string
```text
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
```
<!-- - Prompt type: `qwen3-no-think`
- Prompt string
```text
<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{user_message_1}<|im_end|>
<|im_start|>assistant
{assistant_message_1}<|im_end|>
<|im_start|>user
{user_message_2}<|im_end|>
<|im_start|>assistant
<think>
</think>
``` -->
- Context size: `256000`
- Run as LlamaEdge service
```bash
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Qwen3-Coder-30B-A3B-Instruct-Q5_K_M.gguf \
llama-api-server.wasm \
--model-name Qwen3-Coder-30B-A3B-Instruct \
--prompt-template chatml \
--ctx-size 256000
```
<!-- ## Quantized GGUF Models
| Name | Quant method | Bits | Size | Use case |
| ---- | ---- | ---- | ---- | ----- |
| [Qwen3-Coder-30B-A3B-Instruct-Q2_K.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q2_K.gguf) | Q2_K | 2 | 3.28 GB| smallest, significant quality loss - not recommended for most purposes |
| [Qwen3-Coder-30B-A3B-Instruct-Q3_K_L.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q3_K_L.gguf) | Q3_K_L | 3 | 4.43 GB| small, substantial quality loss |
| [Qwen3-Coder-30B-A3B-Instruct-Q3_K_M.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q3_K_M.gguf) | Q3_K_M | 3 | 4.12 GB| very small, high quality loss |
| [Qwen3-Coder-30B-A3B-Instruct-Q3_K_S.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q3_K_S.gguf) | Q3_K_S | 3 | 3.77 GB| very small, high quality loss |
| [Qwen3-Coder-30B-A3B-Instruct-Q4_0.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q4_0.gguf) | Q4_0 | 4 | 4.77 GB| legacy; small, very high quality loss - prefer using Q3_K_M |
| [Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf) | Q4_K_M | 4 | 5.03 GB| medium, balanced quality - recommended |
| [Qwen3-Coder-30B-A3B-Instruct-Q4_K_S.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q4_K_S.gguf) | Q4_K_S | 4 | 4.80 GB| small, greater quality loss |
| [Qwen3-Coder-30B-A3B-Instruct-Q5_0.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q5_0.gguf) | Q5_0 | 5 | 5.72 GB| legacy; medium, balanced quality - prefer using Q4_K_M |
| [Qwen3-Coder-30B-A3B-Instruct-Q5_K_M.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q5_K_M.gguf) | Q5_K_M | 5 | 5.85 GB| large, very low quality loss - recommended |
| [Qwen3-Coder-30B-A3B-Instruct-Q5_K_S.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q5_K_S.gguf) | Q5_K_S | 5 | 5.72 GB| large, low quality loss - recommended |
| [Qwen3-Coder-30B-A3B-Instruct-Q6_K.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q6_K.gguf) | Q6_K | 6 | 6.73 GB| very large, extremely low quality loss |
| [Qwen3-Coder-30B-A3B-Instruct-Q8_0.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-Q8_0.gguf) | Q8_0 | 8 | 8.71 GB| very large, extremely low quality loss - not recommended |
| [Qwen3-Coder-30B-A3B-Instruct-f16.gguf](https://huggingface.co/second-state/Qwen3-Coder-30B-A3B-Instruct-GGUF/blob/main/Qwen3-Coder-30B-A3B-Instruct-f16.gguf) | f16 | 16 | 16.4 GB| | -->
*Quantized with llama.cpp b6209*
|
roeker/blockassist-bc-quick_wiry_owl_1755674071
|
roeker
| 2025-08-20T07:15:51Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"quick wiry owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:15:11Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- quick wiry owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rettertop/blockassist-bc-rangy_mighty_hare_1755674136
|
rettertop
| 2025-08-20T07:15:43Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rangy mighty hare",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:15:36Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rangy mighty hare
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
ElToro2602/blockassist-bc-raging_prehistoric_chameleon_1755674030
|
ElToro2602
| 2025-08-20T07:14:27Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"raging prehistoric chameleon",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:14:18Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- raging prehistoric chameleon
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
koloni/blockassist-bc-deadly_graceful_stingray_1755672388
|
koloni
| 2025-08-20T07:14:19Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"deadly graceful stingray",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:14:14Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- deadly graceful stingray
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rettertop/blockassist-bc-roaring_flightless_ibis_1755674048
|
rettertop
| 2025-08-20T07:14:18Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"roaring flightless ibis",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:14:08Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- roaring flightless ibis
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
HOHOANG/bge-m3-bank-domain
|
HOHOANG
| 2025-08-20T07:14:10Z | 0 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"xlm-roberta",
"retrieval",
"banking",
"bge",
"multilingual",
"sentence-similarity",
"base_model:BAAI/bge-m3",
"base_model:finetune:BAAI/bge-m3",
"license:apache-2.0",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-08-20T07:12:27Z |
---
library_name: sentence-transformers
pipeline_tag: sentence-similarity
base_model: BAAI/bge-m3
tags:
- retrieval
- banking
- bge
- multilingual
- sentence-transformers
license: apache-2.0
---
# bge-m3-bank-domain
Fine-tuned from **BAAI/bge-m3** cho domain ngân hàng (banking).
Dùng cho: semantic search / retrieval / similarity.
## Cách dùng (Sentence-Transformers)
```python
from sentence_transformers import SentenceTransformer
model = SentenceTransformer("HOHOANG/bge-m3-bank-domain")
emb = model.encode(
["Điều kiện mở thẻ tín dụng là gì?"],
normalize_embeddings=True,
convert_to_tensor=True
)
|
rettertop/blockassist-bc-tiny_fierce_bee_1755673963
|
rettertop
| 2025-08-20T07:12:51Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"tiny fierce bee",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:12:43Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- tiny fierce bee
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
DungND1107/MoewithMT
|
DungND1107
| 2025-08-20T07:12:09Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"arxiv:1910.09700",
"base_model:DungND1107/qwen3-SFTtrue",
"base_model:adapter:DungND1107/qwen3-SFTtrue",
"region:us"
] | null | 2025-08-20T07:09:58Z |
---
base_model: DungND1107/qwen3-SFTtrue
library_name: peft
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
### Framework versions
- PEFT 0.15.2
|
rettertop/blockassist-bc-iridescent_aquatic_parrot_1755673921
|
rettertop
| 2025-08-20T07:12:09Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"iridescent aquatic parrot",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:12:01Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- iridescent aquatic parrot
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
DW-ReCo/spot_gpt-oss-20b-unsloth_ep5_training_ds_v18_120fix_75k_param-7_prompt-v2_lora
|
DW-ReCo
| 2025-08-20T07:11:57Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"gpt_oss",
"trl",
"en",
"base_model:unsloth/gpt-oss-20b-unsloth-bnb-4bit",
"base_model:finetune:unsloth/gpt-oss-20b-unsloth-bnb-4bit",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T07:11:49Z |
---
base_model: unsloth/gpt-oss-20b-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- gpt_oss
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** DW-ReCo
- **License:** apache-2.0
- **Finetuned from model :** unsloth/gpt-oss-20b-unsloth-bnb-4bit
This gpt_oss model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
ohjoonhee/Qwen2.5-VL-3B-InitialRun-checkpoint-1300
|
ohjoonhee
| 2025-08-20T07:11:49Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2_5_vl",
"image-to-text",
"arxiv:1910.09700",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
image-to-text
| 2025-08-20T07:05:11Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
rettertop/blockassist-bc-whistling_exotic_chicken_1755673878
|
rettertop
| 2025-08-20T07:11:27Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"whistling exotic chicken",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:11:18Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- whistling exotic chicken
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
BoSS-21/trained-flux-lora
|
BoSS-21
| 2025-08-20T07:11:23Z | 0 | 0 |
diffusers
|
[
"diffusers",
"text-to-image",
"diffusers-training",
"lora",
"flux",
"flux-diffusers",
"template:sd-lora",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] |
text-to-image
| 2025-08-20T06:07:16Z |
---
base_model: black-forest-labs/FLUX.1-dev
library_name: diffusers
license: other
instance_prompt: a photo of sks dog
widget:
- text: A photo of sks dog in a bucket
output:
url: image_0.png
- text: A photo of sks dog in a bucket
output:
url: image_1.png
- text: A photo of sks dog in a bucket
output:
url: image_2.png
- text: A photo of sks dog in a bucket
output:
url: image_3.png
tags:
- text-to-image
- diffusers-training
- diffusers
- lora
- flux
- flux-diffusers
- template:sd-lora
---
<!-- This model card has been generated automatically according to the information the training script had access to. You
should probably proofread and complete it, then remove this comment. -->
# Flux DreamBooth LoRA - BoSS-21/trained-flux-lora
<Gallery />
## Model description
These are BoSS-21/trained-flux-lora DreamBooth LoRA weights for black-forest-labs/FLUX.1-dev.
The weights were trained using [DreamBooth](https://dreambooth.github.io/) with the [Flux diffusers trainer](https://github.com/huggingface/diffusers/blob/main/examples/dreambooth/README_flux.md).
Was LoRA for the text encoder enabled? False.
## Trigger words
You should use `a photo of sks dog` to trigger the image generation.
## Download model
[Download the *.safetensors LoRA](BoSS-21/trained-flux-lora/tree/main) in the Files & versions tab.
## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers)
```py
from diffusers import AutoPipelineForText2Image
import torch
pipeline = AutoPipelineForText2Image.from_pretrained("black-forest-labs/FLUX.1-dev", torch_dtype=torch.bfloat16).to('cuda')
pipeline.load_lora_weights('BoSS-21/trained-flux-lora', weight_name='pytorch_lora_weights.safetensors')
image = pipeline('A photo of sks dog in a bucket').images[0]
```
For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
## License
Please adhere to the licensing terms as described [here](https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md).
## Intended uses & limitations
#### How to use
```python
# TODO: add an example code snippet for running this diffusion pipeline
```
#### Limitations and bias
[TODO: provide examples of latent issues and potential remediations]
## Training details
[TODO: describe the data used to train the model]
|
kojeklollipop/blockassist-bc-spotted_amphibious_stork_1755672237
|
kojeklollipop
| 2025-08-20T07:10:27Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"spotted amphibious stork",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:10:24Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- spotted amphibious stork
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Vanbitcase/7b-100r-qwen-vl
|
Vanbitcase
| 2025-08-20T07:08:02Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"qwen2_vl",
"trl",
"en",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T07:07:44Z |
---
base_model: unsloth/qwen2-vl-7b-instruct-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2_vl
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** Vanbitcase
- **License:** apache-2.0
- **Finetuned from model :** unsloth/qwen2-vl-7b-instruct-bnb-4bit
This qwen2_vl model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
Savoxism/multilingual-e5-small-finetuned-stage1
|
Savoxism
| 2025-08-20T07:07:21Z | 0 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"bert",
"sentence-similarity",
"feature-extraction",
"generated_from_trainer",
"dataset_size:100000",
"loss:MultipleNegativesRankingLoss",
"arxiv:1908.10084",
"arxiv:1705.00652",
"base_model:intfloat/multilingual-e5-small",
"base_model:finetune:intfloat/multilingual-e5-small",
"autotrain_compatible",
"text-embeddings-inference",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-08-20T07:07:03Z |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:100000
- loss:MultipleNegativesRankingLoss
base_model: intfloat/multilingual-e5-small
widget:
- source_sentence: 'query: Trường hợp trang bị bị hư hỏng thì Chấp hành viên có được
cơ quan đơn vị cấp lại trang phục mới không?'
sentences:
- 'passage: quản lý cấp phát sử dụng trang phục phù hiệu cấp hiệu 1 tổng cục trưởng
tổng cục thi hành án dân sự giúp bộ trưởng bộ tư pháp quản lý thống nhất trang
phục phù hiệu cấp hiệu của người làm công tác thi hành án dân sự trang phục phù
hiệu cấp hiệu của người làm công tác thi hành án dân sự bị hư hỏng bị mất vì lý
do khách quan thì được cơ quan cấp bổ sung trường hợp bị hư hỏng bị mất vì lý
do khác thì được cơ quan cấp nhưng người làm công tác thi hành án dân sự phải
chịu toàn bộ kinh phí mua sắm 2 người làm công tác thi hành án dân sự bị mất trang
phục phù hiệu cấp hiệu thi hành án dân sự phải kịp thời báo cáo lãnh đạo cơ quan
đơn vị nơi mình đang công tác trường hợp nghỉ thôi việc bị kỷ luật buộc thôi việc
chuyển công tác khác thì phải nộp lại phù hiệu cấp hiệu cho thủ trưởng cơ quan
thi hành án dân sự đang quản lý trước khi chuyển công tác'
- "['passage: cấp phát quản lý và sử dụng trang phục … 2 phù hiệu biển hiệu được\
\ cấp một lần; trường hợp đã cũ hư hỏng hoặc bị mất thì được cấp lại 3 thanh tra\
\ viên cán bộ công chức thanh tra chuyên ngành tài nguyên và môi trường khi làm\
\ việc tại văn phòng và khi thi hành công vụ phải mặc trang phục được cấp theo\
\ quy định tại thông tư này và có trách nhiệm giữ gìn bảo quản trường hợp bị hư\
\ hỏng mất có lý do khách quan thì được cấp bổ sung trường hợp hư hỏng mất không\
\ có lý do chính đáng thì cá nhân phải tự may sắm đảm bảo yêu cầu trang phục để\
\ sử dụng khi thi hành công vụ …'\n 'passage: điều 1 sửa đổi bổ sung khoản 1 điều\
\ 3 thông tư số 238/2016/tt-btc ngày 11 tháng 11 năm 2016 của bộ tài chính quy\
\ định về giá dịch vụ kiểm định an toàn kỹ thuật và bảo vệ môi trường đối với\
\ xe cơ giới thiết bị và xe máy chuyên dùng đang lưu hành; đánh giá hiệu chuẩn\
\ thiết bị kiểm tra xe cơ giới “điều 3 giá dịch vụ kiểm định 1 giá dịch vụ quy\
\ định tại thông tư này là giá đã gồm thuế giá trị gia tăng (mức thuế suất mười\
\ phần trăm - 10%) và chi phí cấp giấy chứng nhận kiểm định an toàn kỹ thuật và\
\ bảo vệ môi trường đối với xe cơ giới xe máy chuyên dùng; không bao gồm chi phí\
\ ăn ở đi lại thông tin liên lạc để phục vụ công tác kiểm tra ở những nơi cách\
\ xa trụ sở đơn vị đăng kiểm trên 100 km chi phí ăn ở đi lại thông tin liên lạc\
\ để phục vụ công tác kiểm tra ở những nơi cách xa trụ sở đơn vị đăng kiểm trên\
\ 100 km (nếu có) thực hiện theo quy định hiện hành của bộ tài chính về chế độ\
\ công tác phí đối với các cơ quan nhà nước và đơn vị sự nghiệp công lập ”'\n\
\ 'passage: 1 tỷ giá trung tâm của đồng việt nam với đô la mỹ được xác định trên\
\ cơ sở tham chiếu diễn biến tỷ giá bình quân gia quyền trên thị trường ngoại\
\ tệ liên ngân hàng diễn biến tỷ giá trên thị trường quốc tế của một số đồng tiền\
\ của các nước có quan hệ thương mại vay trả nợ đầu tư lớn với việt nam các cân\
\ đối kinh tế vĩ mô tiền tệ và mục tiêu chính sách tiền tệ 2 “tỷ giá trung tâm\
\ của đồng việt nam với đô la mỹ” tại quyết định này là “tỷ giá giao dịch bình\
\ quân trên thị trường ngoại tệ liên ngân hàng của đồng việt nam với đô la mỹ”'\n\
\ 'passage: thông tư này quy định về thu gom xử lý sử dụng phụ phẩm cây trồng\
\ tại khu vực canh tác của cây trồng nông nghiệp cây cảnh nấm ăn'\n 'passage:\
\ khoản 5 bộ nông nghiệp và phát triển nông thôn chỉ đạo hướng dẫn các cơ quan\
\ chức năng phối hợp với lực lượng cảnh sát môi trường trong các hoạt động sau:\
\ a) trao đổi thông tin tài liệu cần thiết về chủ trương chính sách trong công\
\ tác quản lý nhà nước; thông báo tình hình kết quả công tác thanh tra kiểm tra\
\ xử lý vi phạm pháp luật về môi trường tài nguyên an toàn thực phẩm trong lĩnh\
\ vực: nông nghiệp lâm nghiệp thủy sản và phát triển nông thôn; b) kiểm tra phát\
\ hiện xử lý các hành vi vi phạm hành chính về môi trường tài nguyên an toàn thực\
\ phẩm trong hoạt động sản xuất kinh doanh sử dụng hóa chất thuốc bảo vệ thực\
\ vật sản phẩm xử lý cải tạo môi trường phân bón chất thải trong nông nghiệp;\
\ lĩnh vực thú y giống vật nuôi thức ăn chăn nuôi giết mổ và chế biến sản phẩm\
\ từ vật nuôi; lĩnh vực bảo vệ và phát triển rừng; lĩnh vực nuôi trồng khai thác\
\ chế biến thủy sản; hoạt động bảo tồn thiên nhiên; c) hướng dẫn hỗ trợ lực lượng\
\ cảnh sát môi trường về công tác chuyên môn chuyên ngành; công tác kiểm định\
\ giám định trong lĩnh vực nông nghiệp lâm nghiệp thủy sản để phát hiện xử lý\
\ tội phạm và vi phạm hành chính về môi trường tài nguyên an toàn thực phẩm'\n\
\ 'passage: điều 8 về báo cáo kết quả thực hiện nhiệm vụ chính phủ thủ tướng chính\
\ phủ giao và kết quả kiểm tra của tổ công tác tháng 4 năm 2017 qua kết quả thực\
\ hiện nhiệm vụ do chính phủ thủ tướng chính phủ giao và kết quả kiểm tra của\
\ tổ công tác chính phủ đánh giá cao sự cố gắng của các bộ cơ quan địa phương\
\ trong thực hiện các nhiệm vụ nhất là nhiệm vụ xây dựng thể chế tuy nhiên trong\
\ tháng 4 năm 2017 số nhiệm vụ quá hạn chưa hoàn thành tăng so với tháng trước\
\ trong đó có một số văn bản quy định chi tiết thi hành luật pháp lệnh chậm được\
\ ban hành đề nghị các bộ trưởng thủ trưởng cơ quan ngang bộ thực hiện nghiêm\
\ chủ trương của chính phủ không để nợ đọng văn bản quy định chi tiết thi hành\
\ luật pháp lệnh đối với những bộ cơ quan còn nợ văn bản quy định chi tiết thi\
\ hành luật pháp lệnh có hiệu lực từ ngày 01 tháng 01 năm 2017 trở về trước luật\
\ pháp lệnh có hiệu lực từ ngày 01 tháng 6 năm 2017 và ngày 01 tháng 7 năm 2017\
\ phải khẩn trương ban hành theo thẩm quyền hoặc trình cấp có thẩm quyền ban hành\
\ chính phủ thống nhất với các kiến nghị của tổ công tác giao tổ công tác hoàn\
\ thiện ban hành báo cáo tình hình thực hiện nhiệm vụ chính phủ thủ tướng chính\
\ phủ giao và kết quả kiểm tra tháng 4 năm 2017 tổ công tác tiếp tục kiểm tra\
\ việc thực hiện nhiệm vụ ở một số bộ cơ quan địa phương và tập trung kiểm tra\
\ chuyên đề về công tác xây dựng và hoàn thiện thể chế và một số chủ trương chính\
\ sách quan trọng của chính phủ các bộ cơ quan địa phương nghiêm túc triển khai\
\ các nhiệm vụ được giao và báo cáo kết quả thực hiện gửi tổ công tác trước ngày\
\ 25 tháng 5 năm 2017']"
- 'passage: "3 31 thư viện trường đại học thiết kế theo số lượng người như sau:
- 100% số lượng học sinh - 100% số nghiên cứu sinh hệ dài hạn số giáo sư cán bộ
giảng dạy và cán bộ khoa học 3 32 khối lượng sách của thư viện lấy theo số lượng
người: a) trong các trường đại học tổng hợp y khoa văn hóa và nghệ thuật sư phạm
tính 123 đơn vị sách cho mỗi người b) trong các trường đại học kĩ thuật kinh tế
công nghiệp tính l06 đơn vị sách cho mỗi người khối lượng sách ít sử dụng và sách
dự trữ được bảo quản gọn không được chiếm quá 20% tổng số sách của thư viện 3
33 tuỳ thuộc vào các điều kiện của trường có thể thiết kế các chi nhánh thư viện
giữa một số khoa từng khoa hoặc bộ môn cũng như các chi nhánh thư viện ở các bộ
phận nghiên khoa học và những bộ phận khác của trường đại học kể cả ở kí túc xá
và câu lạc bộ trực thuộc thư viện chung của trường khối lượng sách nhiều nhất
của tất cả chi nhánh không được vượt quá 20% tổng số sách chung của trường 3 34
khối lượng sách của thư viện khoa học cần có là 20% tổng số sách phục vụ cho toàn
khoa song không được lớn hơn 30 nghìn đơn vị sách "'
- source_sentence: 'query: Doanh nghiệp lấn chiếm đất công thuộc đất phi nông nghiệp
để xây dựng công trình cần phải thực hiện những biện pháp khắc phục hậu quả gì?'
sentences:
- 'passage: lấn chiếm đất 7 biện pháp khắc phục hậu quả: a) buộc khôi phục lại tình
trạng ban đầu của đất trước khi vi phạm đối với các hành vi vi phạm tại các khoản
1 2 3 4 và khoản 5 của điều này và buộc trả lại đất đã lấn chiếm; trừ trường hợp
trường hợp quy định tại điểm b và điểm c khoản này; b) buộc đăng ký đất đai theo
quy định đối với trường hợp có đủ điều kiện được công nhận quyền sử dụng đất và
các trường hợp người đang sử dụng đất vi phạm được tạm thời sử dụng cho đến khi
nhà nước thu hồi đất theo quy định tại điều 22 nghị định số 43/2014/nđ-cp; c)
buộc thực hiện tiếp thủ tục giao đất thuê đất theo quy định đối với trường hợp
sử dụng đất khi chưa thực hiện xong thủ tục giao đất thuê đất; d) buộc nộp lại
số lợi bất hợp pháp có được do thực hiện hành vi vi phạm quy định tại các khoản
1 2 3 4 và 5 điều này; số lợi bất hợp pháp được xác định theo quy định tại khoản
2 điều 7 của nghị định này'
- 'passage: nan'
- "['passage: khoản 1 trong quá trình thực hiện sắp xếp đổi mới và phát triển nâng\
\ cao hiệu quả hoạt động các công ty nông lâm nghiệp đang sử dụng đất có trách\
\ nhiệm: a) rà soát hiện trạng sử dụng đất về vị trí ranh giới quản lý sử dụng\
\ đất; diện tích đất đang sử dụng đúng mục đích; diện tích đất sử dụng không đúng\
\ mục đích; diện tích đất không sử dụng; diện tích đất đang giao khoán cho thuê\
\ cho mượn bị lấn bị chiếm liên doanh liên kết hợp tác đầu tư và đang có tranh\
\ chấp; b) căn cứ phương án sắp xếp đổi mới và phát triển công ty nông lâm nghiệp\
\ đã được cơ quan có thẩm quyền phê duyệt; quy hoạch sử dụng đất của địa phương\
\ và hiện trạng sử dụng đất để đề xuất phương án sử dụng đất nội dung phương án\
\ sử dụng đất phải thể hiện vị trí ranh giới sử dụng đất; diện tích đất đề nghị\
\ giữ lại sử dụng theo từng loại đất hình thức sử dụng đất thời hạn sử dụng đất;\
\ diện tích đất bàn giao cho địa phương; c) báo cáo cơ quan tài nguyên và môi\
\ trường thẩm định phương án sử dụng đất trước khi trình ủy ban nhân dân cấp tỉnh\
\ phê duyệt; d) tổ chức thực hiện phương án sử dụng đất đã được phê duyệt'\n 'passage:\
\ chương iii quy định kỹ thuật vận hành trạm thu ảnh vệ tinh điều 8 điều kiện\
\ vận hành trạm thu ảnh vệ tinh 1 hệ thống trạm thu ảnh vệ tinh phải đảm bảo ở\
\ trạng thái hoạt động liên tục hai mươi tư giờ một ngày và bảy ngày trong một\
\ tuần 2 công tác vận hành trạm thu phải do người vận hành có trình độ đại học\
\ thuộc một trong các chuyên ngành sau: trắc địa bản đồ viễn thám điện tử viễn\
\ thông công nghệ thông tin và đã được tham gia khóa đào tạo về vận hành trạm\
\ thu ảnh vệ tinh điều 9 ca trực việc vận hành trạm thu ảnh vệ tinh được chia\
\ theo ca trực kết quả làm việc và các sự cố kỹ thuật xảy ra trong ca trực (nếu\
\ có) phải được ghi vào sổ trực (theo mẫu tại phụ lục số 01 ban hành kèm theo\
\ thông tư này) sau khi kết thúc ca trực phải tiến hành bàn giao ca giữa hai nhóm\
\ vận hành và ký vào sổ trực điều 10 công tác chuẩn bị trước khi thu nhận 1 kiểm\
\ tra trạng thái sẵn sàng hoạt động của thiết bị: ăng ten; thiết bị điều khiển\
\ ăng ten; thiết bị chuyển đổi tần số; thiết bị dò tín hiệu; thiết bị đo phổ tần\
\ số; bộ giải điều chế tín hiệu thiết bị gps thiết bị đo gió 2 chạy thử hệ thống\
\ thiết bị điều khiển ăng ten; kiểm tra các thông số kỹ thuật của các thiết bị\
\ sau khi chạy thử và ghi lại các thông số vào sổ trực 3 kiểm tra thiết bị trong\
\ phòng tình trạng hoạt động và các cấu hình của các máy chủ thu nhận xử lý và\
\ lưu trữ tín hiệu 4 kiểm tra kế hoạch thu ảnh và sự đồng bộ về mặt thời gian\
\ giữa hệ thống điều khiển ăng ten và hệ thống xử lý tín hiệu 5 trong trường hợp\
\ xảy ra xung đột về kế hoạch thu ảnh giữa các vệ tinh phải xin ý kiến người quản\
\ lý trạm thu để lựa chọn vệ tinh có mức độ ưu tiên cao hơn điều 11 thu nhận và\
\ xử lý tín hiệu vệ tinh 1 khi hệ thống bắt đầu thu tín hiệu người vận hành phải\
\ theo dõi tín hiệu thu nhận được kiểm tra sơ bộ các kênh truyền tín hiệu thời\
\ gian truyền tín hiệu vị trí thu theo kế hoạch thu ảnh và chất lượng của tín\
\ hiệu thu được từ vệ tinh tất cả các thông tin trên phải được ghi vào sổ trực\
\ hàng ngày 2 người vận hành phải giám sát các quá trình thu nhận xử lý tín hiệu\
\ vệ tinh ra dữ liệu viễn thám mức 0 và lưu trữ dữ liệu này trên hệ thống lưu\
\ trữ trực tuyến của trạm thu ảnh vệ tinh điều 12 đánh giá chất lượng ảnh viễn\
\ thám đánh giá sơ bộ chất lượng ảnh viễn thám: được chia thành các mức rất tốt\
\ tốt xấu và không sử dụng được trong đó mức rất tốt là ảnh được xử lý từ tín\
\ hiệu có giá trị ber bằng 0 mức tốt là ảnh được xử lý từ tín hiệu có giá trị\
\ ber nằm trong khoảng cho phép của nhà sản xuất mức xấu là ảnh được xử lý từ\
\ tín hiệu có giá trị ber lớn dẫn đến ảnh xử lý ra bị nhiễu gây khó khăn trong\
\ quá trình sử dụng mức không sử dụng được là ảnh được xử lý từ tín hiệu có giá\
\ trị ber quá lớn dẫn đến không xử lý ra được ảnh hoặc ảnh được xử lý ra bị nhiễu\
\ nặng không sử dụng được điều 13 đánh giá độ che phủ mây'\n 'passage: khoản 1\
\ rủi ro an ninh hàng không là xác suất thực hiện thành công hành vi can thiệp\
\ bất hợp pháp vào hoạt động hàng không dân dụng đối với mục tiêu cụ thể dựa trên\
\ đánh giá về đe dọa hậu quả và yếu điểm hoặc hạn chế'\n 'passage: khoản 4 trình\
\ tự thủ tục đánh giá nghiệm thu đề tài dự án và chương trình thực hiện theo văn\
\ bản quy định về đánh giá nghiệm thu các nhiệm vụ khoa học và công nghệ cấp nhà\
\ nước và văn bản quy định về đánh giá nghiệm thu đề tài nghiên cứu khoa học công\
\ nghệ tiềm năng do bộ khoa học và công nghệ ban hành'\n 'passage: điều 12 thanh\
\ toán chi phí vận chuyển 1 điều kiện được thanh toán và hồ sơ thanh toán thủ\
\ tục thanh toán chi phí vận chuyển thực hiện theo quy định tại các điểm a và\
\ c khoản 5 điều 11 nghị định số 70/2015/nđ-cp 2 mức thanh toán chi phí vận chuyển\
\ trong phạm vi quỹ bảo hiểm y tế a) trường hợp sử dụng phương tiện vận chuyển\
\ của cơ sở khám bệnh chữa bệnh thì cơ sở khám bệnh chữa bệnh được thanh toán\
\ chi phí vận chuyển cả chiều đi và về theo mức bằng 0 2 lít xăng/km tính theo\
\ khoảng cách thực tế giữa hai cơ sở khám bệnh chữa bệnh và giá xăng tại thời\
\ điểm sử dụng nếu có nhiều hơn một người bệnh cùng được vận chuyển trên một phương\
\ tiện thì mức thanh toán chỉ được tính như đối với vận chuyển một người bệnh;\
\ b) trường hợp không sử dụng phương tiện vận chuyển của cơ sở khám bệnh chữa\
\ bệnh thì cơ sở khám bệnh chữa bệnh bảo hiểm y tế thanh toán trước khoản chi\
\ phí vận chuyển chiều đi cho người bệnh theo mức bằng 0 2 lít xăng/km tính theo\
\ khoảng cách thực tế giữa hai cơ sở khám bệnh chữa bệnh và giá xăng tại thời\
\ điểm sử dụng; c) mức hưởng chi phí vận chuyển quy định tại điểm a và b khoản\
\ 2 điều này áp dụng đối với phương tiện vận chuyển bằng đường bộ hoặc đường sắt\
\ hạng phổ thông trường hợp vận chuyển bằng tàu thủy được quy đổi từ hải lý sang\
\ ki-lô-mét (km); vận chuyển bằng đường hàng không được áp dụng như đối với đường\
\ bộ; ví dụ 1: đồng chí trung úy nguyễn văn a bị bệnh cần vận chuyển bằng tàu\
\ thủy từ đảo cát bà đến bến tàu khách hải phòng để điều trị với hải trình là\
\ 30 hải lý quy đổi tương đương là 56 km giá xăng tại thời điểm vận chuyển là\
\ 15 600 đồng/lít xăng như vậy mức hưởng chi phí vận chuyển của đồng chí nguyễn\
\ văn a được tính như sau: 56 km x 0 2 lít xăng/km x 15 600 đồng/lít = 174 720\
\ đồng ví dụ 2: đồng chí thượng úy lê thị b bị bệnh cần vận chuyển bằng tàu bay\
\ từ tỉnh điện biên đến hà nội để điều trị khoảng cách đường bộ từ điện biên đến\
\ hà nội là 500km giá xăng tại thời điểm vận chuyển là 15 600 đồng/lít xăng như\
\ vậy mức hưởng chi phí vận chuyển của đồng chí lê thị b được tính như sau: 500\
\ km x 0 2 lít xăng/km x 15 600 đồng/lít = 1 560 000 đồng d) chi phí vận chuyển\
\ quy định tại các điểm a và b khoản 2 điều này không thanh toán đối với người\
\ hộ tống người bệnh chuyển tuyến (nếu có); đ) hằng quý cơ quan bảo hiểm xã hội\
\ thanh toán chi phí vận chuyển cho cơ sở khám bệnh chữa bệnh cùng kỳ quyết toán\
\ chi phí khám bệnh chữa bệnh bảo hiểm y tế 3 chi phí vận chuyển ngoài phạm vi\
\ quy định tại khoản 2 điều này'\n 'passage: điều 51 nguyên tắc làm việc của hội\
\ đồng thẩm định cấp điều chỉnh nội dung giấy chứng nhận đủ điều kiện hoạt động\
\ dịch vụ quan trắc môi trường 1 các hoạt động của hội đồng thẩm định được tiến\
\ hành khi tổ chức đã nộp phí thẩm định đủ điều kiện hoạt động dịch vụ quan trắc\
\ môi trường theo quy định của pháp luật 2 chủ tịch hội đồng phó chủ tịch hội\
\ đồng và ủy viên thư ký hội đồng phải là công chức của cơ quan được giao thẩm\
\ định 3 hội đồng thẩm định làm việc theo nguyên tắc thảo luận công khai giữa\
\ các thành viên trong hội đồng và giữa hội đồng thẩm định với đại diện có thẩm\
\ quyền của tổ chức đề nghị cấp điều chỉnh nội dung giấy chứng nhận đủ điều kiện\
\ hoạt động dịch vụ quan trắc môi trường 4 đánh giá kiểm tra thực tế: các thành\
\ viên hội đồng thẩm định có trách nhiệm thẩm định đánh giá chính xác khách quan\
\ các điều kiện hoạt động dịch vụ quan trắc môi trường theo quy định tại điều\
\ 49 thông tư này; lập phiếu đánh giá kiểm tra tại tổ chức theo quy định tại mẫu\
\ số 02 phụ lục iv ban hành kèm theo thông tư này và lập biên bản đánh giá kiểm\
\ tra tại tổ chức theo quy định tại mẫu số 03 phụ lục iv ban hành kèm theo thông\
\ tư này 5 họp hội đồng thẩm định: a) hội đồng tiến hành thẩm định đánh giá điều\
\ kiện hoạt động dịch vụ quan trắc môi trường của tổ chức trên cơ sở các hồ sơ\
\ tài liệu có liên quan và kết quả đánh giá kiểm tra thực tế tại tổ chức; b) phiên\
\ họp chính thức của hội đồng thẩm định được tiến hành khi có đầy đủ các điều\
\ kiện sau: có sự tham gia tại phiên họp trực tiếp hoặc trực tuyến từ 2/3 (hai\
\ phần ba) số lượng thành viên trở lên trong đó phải có chủ tịch hội đồng hoặc\
\ phó chủ tịch hội đồng được chủ tịch hội đồng ủy quyền trong trường hợp chủ tịch\
\ hội đồng vắng mặt; có sự tham gia của đại diện có thẩm quyền hoặc người được\
\ ủy quyền của tổ chức đề nghị cấp điều chỉnh giấy chứng nhận đủ điều kiện hoạt\
\ động dịch vụ quan trắc môi trường; c) các thành viên hội đồng thẩm định vắng\
\ mặt được gửi bản nhận xét trước phiên họp chính thức của hội đồng và được coi\
\ là ý kiến của thành viên tham dự phiên họp chính thức nhưng không tham gia viết\
\ phiếu đánh giá thẩm định; d) chủ tịch hội đồng (hoặc phó chủ tịch hội đồng được\
\ chủ tịch hội đồng ủy quyền trong trường hợp chủ tịch hội đồng vắng mặt) ủy viên\
\ thư ký hội đồng có trách nhiệm ký biên bản họp hội đồng thẩm định điều kiện\
\ hoạt động dịch vụ quan trắc môi trường; đ) ủy viên hội đồng có trách nhiệm viết\
\ bản nhận xét và phiếu đánh giá thẩm định tại phiên họp chính thức của hội đồng\
\ thẩm định theo quy định tại mẫu số 04 và mẫu số 05 phụ lục iv ban hành kèm theo\
\ thông tư này; e) ngoài trách nhiệm theo quy định tại điểm d và đ khoản này ủy\
\ viên thư ký còn có trách nhiệm lập biên bản họp hội đồng thẩm định theo quy\
\ định tại mẫu số 06 phụ lục iv ban hành kèm theo thông tư này trường hợp không\
\ tham dự phiên họp của hội đồng ủy viên thư ký báo cáo chủ tịch hội đồng để cử\
\ một ủy viên hội đồng làm thư ký của phiên họp 6 chi phí cho hoạt động của hội\
\ đồng thẩm định thực hiện theo quy định của pháp luật']"
- source_sentence: 'query: Hiện nay việc bảo trì tài sản kết cấu hạ tầng hàng hải
có thể thực hiện theo những hình thức nào?'
sentences:
- 'passage: mẫu thẻ cán bộ công chức viên chức thẻ hình chữ nhật rộng 50mm; dài
90mm trên hai mặt thẻ được in giống nhau các tiêu chí thông tin sau đây: 1 tên
cơ quan cấp bộ cấp tỉnh và tương đương hoặc cơ quan cấp trên của cơ quan tổ chức
đơn vị trực tiếp sử dụng cán bộ công chức viên chức (ghi ở hàng thứ nhất): chữ
in hoa kiểu times new roman size 14 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001)
chữ đậm màu chữ vàng nhạt được in trên nền màu xanh da trời 2 tên cơ quan tổ chức
đơn vị trực tiếp sử dụng cán bộ công chức viên chức (ghi ở hàng thứ hai): chữ
in hoa kiểu times new roman size 14 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001)
chữ đậm màu chữ vàng nhạt được in trên nền màu xanh da trời 3 họ và tên của cán
bộ công chức viên chức (ghi ở hàng thứ ba): chữ in hoa kiểu times new roman size
16 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001) chữ đậm màu đen được in trên
nền màu trắng 4 chức vụ của cán bộ công chức viên chức (ghi ở hàng thứ tư): chữ
in hoa kiểu times new roman size 12 (theo bộ mã tiêu chuẩn tiếng việt tcvn-6909/2001)
đậm màu đen được in trên nền màu trắng đối với những người không giữ chức vụ lãnh
đạo thì ghi chức danh công việc hiện tại của cán bộ công chức viên chức đó 5 mã
số thẻ cán bộ công chức viên chức theo hướng dẫn của bộ nội vụ (ghi ở hàng thứ
năm) chữ in hoa kiểu times new roman size 14 (theo bộ mã tiêu chuẩn tiếng việt
tcvn-6909/2001) đậm màu đỏ được in trên nền màu trắng trong khi chờ quy định mới
về mã số thẻ cán bộ công chức viên chức trước mắt vẫn áp dụng số hiệu của thẻ
công chức theo hướng dẫn tại công văn số 152/tccp-vc ngày 05 tháng 5 năm 1994
của ban tổ chức – cán bộ chính phủ (nay là bộ nội vụ) về hướng dẫn làm phiếu thẻ
công chức 6 ảnh màu cỡ 3 x 4cm của người được cấp thẻ ở vị trí phía dưới bên trái
thẻ 7 hình quốc huy in màu theo quy định ở vị trí phía trên bên trái thẻ'
- 'passage: 1 tài sản kết cấu hạ tầng giao thông đường bộ phải được bảo trì theo
quy định tại nghị định này và các quy định của pháp luật có liên quan; việc bảo
trì tài sản bảo đảm tuân theo trình tự quy trình kế hoạch và tiêu chuẩn định mức
nhằm duy trì tình trạng kỹ thuật của tài sản bảo đảm hoạt động bình thường và
an toàn khi sử dụng khai thác tài sản 2 các hình thức bảo trì tài sản kết cấu
hạ tầng giao thông đường bộ: a) bảo trì theo chất lượng thực hiện: bảo trì theo
chất lượng thực hiện là việc thực hiện hoạt động bảo trì theo các tiêu chuẩn chất
lượng xác định trong một khoảng thời gian với một số tiền nhất định được quy định
tại hợp đồng kinh tế cơ quan được giao quản lý tài sản có trách nhiệm xác định
chi phí bảo trì để khoán đối với từng tài sản thuộc phạm vi được giao quản lý;
trình cơ quan người có thẩm quyền phê duyệt chi phí bảo trì tài sản kết cấu hạ
tầng giao thông đường bộ để khoán được xác định theo phương pháp định mức kinh
tế - kỹ thuật của hoạt động bảo trì hoặc phương pháp chi phí bình quân của hoạt
động bảo trì 3 năm liền kề trước đó cộng với yếu tố trượt giá (nếu có) hoặc kết
hợp hai phương pháp trên tiêu chí giám sát nghiệm thu kết quả bảo trì tài sản
kết cấu hạ tầng giao thông đường bộ theo chất lượng thực hiện và yếu tố trượt
giá thực hiện theo quy định của bộ giao thông vận tải b) bảo trì theo khối lượng
thực tế: bảo trì theo khối lượng thực tế là việc thực hiện hoạt động bảo trì theo
khối lượng công việc thực tế đã thực hiện việc bảo trì theo khối lượng thực tế
áp dụng đối với hoạt động sửa chữa định kỳ và sửa chữa đột xuất tài sản kết cấu
hạ tầng giao thông đường bộ 3 bộ trưởng bộ giao thông vận tải chủ tịch ủy ban
nhân dân cấp tỉnh quyết định việc áp dụng hình thức bảo trì quy định tại điểm
a điểm b khoản 2 điều này đối với từng hoạt động bảo trì tài sản kết cấu hạ tầng
giao thông đường bộ theo quy định tại nghị định này pháp luật về quản lý chất
lượng và bảo trì công trình xây dựng và pháp luật chuyên ngành đảm bảo tiết kiệm
hiệu quả 4 việc lựa chọn tổ chức thực hiện bảo trì tài sản kết cấu hạ tầng giao
thông đường bộ theo các hình thức quy định tại khoản 2 điều này được thực hiện
theo quy định của pháp luật về đấu thầu pháp luật chuyên ngành giao thông đường
bộ và pháp luật có liên quan 5 kinh phí bảo trì tài sản kết cấu hạ tầng giao thông
đường bộ được bố trí từ ngân sách nhà nước theo quy định của pháp luật về ngân
sách nhà nước và nguồn kinh phí khác theo quy định của pháp luật; trừ các trường
hợp sau đây: a) tài sản kết cấu hạ tầng giao thông đường bộ đã tính thành phần
vốn nhà nước tại doanh nghiệp; b) tài sản kết cấu hạ tầng giao thông đường bộ
trong thời gian cho thuê quyền khai thác mà doanh nghiệp thuê quyền khai thác
có nghĩa vụ thực hiện việc bảo trì theo quy định của pháp luật và hợp đồng ký
kết; c) tài sản kết cấu hạ tầng giao thông đường bộ trong thời gian chuyển nhượng
có thời hạn quyền khai thác mà doanh nghiệp nhận chuyển nhượng có nghĩa vụ thực
hiện việc bảo trì theo quy định của pháp luật và hợp đồng ký kết 6 bảo trì tài
sản kết cấu hạ tầng giao thông đường bộ đối với trường hợp quy định tại các điểm
a b và c khoản 5 điều này thì việc lựa chọn tổ chức cá nhân bảo trì tài sản và
việc tổ chức thực hiện bảo trì theo quy định của pháp luật về giao thông đường
bộ pháp luật về xây dựng và pháp luật khác có liên quan'
- "['passage: khoản 1 công tác bảo trì tài sản kết cấu hạ tầng hàng không được thực\
\ hiện theo hai hình thức: bảo trì theo chất lượng thực hiện và bảo trì theo khối\
\ lượng thực tế theo quy định tại khoản 2 điều 8 nghị định số 44/2018/nđ-cp'\n\
\ 'passage: \"điều 18 đánh giá hồ sơ dự thầu [ ] 3 đánh giá về năng lực và kinh\
\ nghiệm: a) việc đánh giá về năng lực và kinh nghiệm thực hiện theo tiêu chuẩn\
\ đánh giá quy định trong hồ sơ mời thầu; b) nhà thầu có năng lực và kinh nghiệm\
\ đáp ứng yêu cầu được xem xét đánh giá về kỹ thuật \"'\n 'passage: \"điều 66\
\ người làm chứng 1 người làm chứng là người biết được những tình tiết liên quan\
\ đến nguồn tin về tội phạm về vụ án và được cơ quan có thẩm quyền tiến hành tố\
\ tụng triệu tập đến làm chứng 2 những người sau đây không được làm chứng: a)\
\ người bào chữa của người bị buộc tội; b) người do nhược điểm về tâm thần hoặc\
\ thể chất mà không có khả năng nhận thức được những tình tiết liên quan nguồn\
\ tin về tội phạm về vụ án hoặc không có khả năng khai báo đúng đắn \"'\n 'passage:\
\ vi phạm các quy định về bảo vệ môi trường tại cơ sở khu sản xuất kinh doanh\
\ dịch vụ tập trung cụm công nghiệp làng nghề 4 hành vi vi phạm quy định về bảo\
\ vệ môi trường trong hoạt động kinh doanh hạ tầng khu sản xuất kinh doanh dịch\
\ vụ tập trung bị xử phạt như sau: a) phạt tiền từ 10 000 000 đồng đến 20 000\
\ 000 đồng đối với hành vi không bố trí nhân sự phụ trách về bảo vệ môi trường\
\ theo quy định; không ban hành quy chế bảo vệ môi trường của khu sản xuất kinh\
\ doanh dịch vụ tập trung phù hợp yêu cầu về bảo vệ môi trường theo quy định;\
\ không phối hợp với cơ quan có thẩm quyền tổ chức thực hiện hoạt động bảo vệ\
\ môi trường kiểm tra thanh tra về bảo vệ môi trường đối với các dự án đầu tư\
\ cơ sở trong khu sản xuất kinh doanh dịch vụ tập trung theo quy định;'\n 'passage:\
\ chính sách tín dụng đối với hoạt động khoa học và công nghệ 1 tổ chức cá nhân\
\ hoạt động khoa học và công nghệ vay vốn trung và dài hạn để hoạt động khoa học\
\ và công nghệ được hưởng lãi suất ưu đãi khi vay vốn tại quỹ phát triển khoa\
\ học và công nghệ quốc gia các quỹ khác của nhà nước 2 tổ chức cá nhân vay vốn\
\ để đầu tư vào hoạt động khoa học và công nghệ được ưu đãi về tín dụng theo điều\
\ lệ của quỹ nơi vay vốn 3 tổ chức cá nhân vay vốn tại ngân hàng thương mại để\
\ đầu tư vào hoạt động khoa học và công nghệ đặc biệt hoạt động triển khai thực\
\ nghiệm và sản xuất thử nghiệm được ngân hàng phát triển việt nam xem xét hỗ\
\ trợ lãi suất sau đầu tư hoặc bảo lãnh tín dụng đầu tư dành tỷ lệ nhất định dư\
\ nợ tín dụng cho hoạt động khoa học và công nghệ 4 những chương trình đề tài\
\ dự án khoa học và công nghệ phục vụ trực tiếp chương trình kinh tế - xã hội\
\ trọng điểm của nhà nước và phát triển tiềm lực khoa học và công nghệ quốc gia\
\ đặc biệt dự án triển khai thực nghiệm sản xuất thử nghiệm có yêu cầu sử dụng\
\ vốn lớn được ưu tiên xét cho sử dụng vốn hỗ trợ phát triển chính thức theo phương\
\ thức sau đây: a) tài trợ không hoàn lại hoặc cho vay ưu đãi đối với hoạt động\
\ nghiên cứu khoa học và phát triển công nghệ; b) cho vay đối với dự án đầu tư\
\ xây dựng tiềm lực khoa học và công nghệ hoặc cho vay có thu hồi đối với dự án\
\ ứng dụng kết quả nghiên cứu khoa học và phát triển công nghệ'\n 'passage: thuế\
\ thu nhập doanh nghiệp 2 tỷ lệ (%) thuế tndn tính trên doanh thu tính thuế a)\
\ tỷ lệ (%) thuế tndn tính trên doanh thu tính thuế đối với ngành kinh doanh:']"
- source_sentence: 'query: Chăn nuôi số lượng bao nhiêu con giống vật nuôi là dê Bách
Thảo thì cần kê khai hoạt động chăn nuôi?'
sentences:
- "['passage: 1 cục chăn nuôi có trách nhiệm: a) tổ chức triển khai kê khai hoạt\
\ động chăn nuôi và các nội dung liên quan đến hoạt động chăn nuôi trên phạm vi\
\ cả nước b) xây dựng chương trình khung (nội dung thời gian) về đào tạo kỹ thuật\
\ thụ tinh nhân tạo cấy truyền phôi cho trâu bò dê cừu ngựa c) thực hiện thanh\
\ tra kiểm tra hoạt động chăn nuôi trên phạm vi cả nước 2 sở nông nghiệp và phát\
\ triển nông thôn các tỉnh thành phố trực thuộc trung ương có trách nhiệm: a)\
\ tổ chức triển khai các nội dung liên quan đến hoạt động chăn nuôi được quy định\
\ tại thông tư này trên địa bàn; b) thực hiện công tác thanh tra kiểm tra về hoạt\
\ động chăn nuôi trên địa bàn; c) tổng hợp báo cáo kết quả kê khai hoạt động chăn\
\ nuôi trên địa bàn về cục chăn nuôi định kỳ trước ngày 10 tháng đầu tiên của\
\ quý tiếp theo hoặc khi có yêu cầu của cơ quan có thẩm quyền 3 tổ chức cá nhân\
\ chăn nuôi: tổ chức cá nhân chăn nuôi có trách nhiệm thực hiện quy định của thông\
\ tư này và quy định của pháp luật có liên quan'\n 'passage: điều 18 thông qua\
\ đề nghị xây dựng văn bản quy phạm pháp luật: 1 chính phủ xem xét đề nghị xây\
\ dựng luật nghị quyết của quốc hội pháp lệnh nghị quyết của ủy ban thường vụ\
\ quốc hội nghị định của chính phủ vào phiên họp thường kỳ của chính phủ trường\
\ hợp có nhiều đề nghị hoặc căn cứ vào chương trình công tác của chính phủ thủ\
\ tướng chính phủ văn phòng chính phủ chủ trì phối hợp với bộ tư pháp đề xuất\
\ phiên họp chuyên đề của chính phủ về công tác xây dựng pháp luật trên cơ sở\
\ nghị quyết của chính phủ thông qua đề nghị cơ quan lập đề nghị chủ động tiến\
\ hành việc soạn thảo dự án dự thảo văn bản 2 ủy ban nhân dân cấp tỉnh xem xét\
\ thông qua đề nghị xây dựng nghị quyết của hội đồng nhân dân cấp tỉnh vào phiên\
\ họp thường kỳ của ủy ban nhân dân để trình thường trực hội đồng nhân dân cấp\
\ tỉnh trường hợp chấp thuận thường trực hội đồng nhân dân cấp tỉnh có văn bản\
\ phân công cơ quan tổ chức trình dự thảo nghị quyết thời hạn trình hội đồng nhân\
\ dân cấp tỉnh và giao ủy ban nhân dân cấp tỉnh bố trí kinh phí bảo đảm cho việc\
\ soạn thảo'\n 'passage: 1 khu vực biển phải thoáng địa hình đáy bằng phẳng không\
\ có bãi nổi bãi đá ngầm làm biến dạng hướng dòng chảy 2 khu vực quan trắc phải\
\ sâu nhất trong vùng quan trắc độ sâu phải đạt tối thiểu 5 m khi mực nước triều\
\ thấp nhất 3 công trình lắp phương tiện đo thủ công và tự động đảm bảo các đặc\
\ tính kỹ thuật; vị trí công trình quan trắc được gắn cố định vào cầu cảng nhà\
\ giàn phao rùa và tàu'\n 'passage: xây dựng cơ sở dữ liệu về thi hành tạm giữ\
\ tạm giam 3 các hình thức thu thập cập nhật thông tin: a) báo cáo định kỳ báo\
\ cáo vụ việc báo cáo chuyên đề về thi hành tạm giữ tạm giam và các số liệu thống\
\ kê theo mẫu quy định của bộ trưởng bộ công an bộ trưởng bộ quốc phòng; b) hồ\
\ sơ quản lý người bị tạm giữ người bị tạm giam; c) các cơ sở dữ liệu có liên\
\ quan; d) các hình thức khác'\n 'passage: điều kiện cho vay lại 4 lãi suất cho\
\ vay lại: a lãi suất cho vay lại trong hạn: - mức lãi suất cho vay lại: + bằng\
\ đồng việt nam: được xác định theo ngành kinh tế kỹ thuật và không vượt quá lãi\
\ suất tín dụng đầu tư của nhà nước quy định trong từng thời kỳ do bộ tài chính\
\ công bố + bằng ngoại tệ: bằng lãi suất cho vay lại bằng đồng việt nam quy định\
\ nêu trên trừ đi tỷ lệ rủi ro hối đoái tương ứng của đồng tiền cho vay lại nhưng\
\ không thấp hơn mức lãi suất vay nước ngoài và không cao hơn hai phần ba (2/3)\
\ lãi suất thương mại tham chiếu (cirr) do tổ chức hợp tác phát triển kinh tế\
\ (oecd) công bố tại thời điểm xác định lãi suất cho vay lại mức rủi ro hối đoái\
\ hàng năm đối với 3 loại ngoại tệ là đô la mỹ (usd) euro (eur) và yên nhật bản\
\ (jpy) do bộ tài chính công bố hàng năm (chậm nhất là ngày 15/3 hàng năm và được\
\ áp dụng cho đến hết ngày 15/3 năm kế tiếp) trường hợp ngoại tệ gốc trong hiệp\
\ định vay khác với ba loại ngoại tệ nói trên mức rủi ro hối đoái được áp dụng\
\ theo mức rủi ro hối đoái của đồng usd - lãi suất cho vay lại được quy định tại\
\ hợp đồng ủy quyền cho vay lại ký giữa nhpt và bộ tài chính - lãi cho vay lại\
\ được tính trên dư nợ kể từ ngày rút vốn vay b lãi suất chậm trả: quy định tại\
\ hợp đồng ủy quyền cho vay lại ký giữa nhpt và bộ tài chính bằng 150% lãi suất\
\ cho vay lại hoặc mức lãi suất chậm trả ghi trong hiệp định vay gốc tùy theo\
\ mức nào cao hơn lãi chậm trả được tính trên số nợ (gốc lãi) chậm trả tính từ\
\ ngày đến hạn trả nhưng chưa trả cho đến ngày thực tế trả nợ'\n 'passage: định\
\ mức giờ giảng được xác định là số giờ chuẩn cho mỗi nhà giáo phải giảng dạy\
\ được quy định theo năm học']"
- 'passage: hành vi vi phạm về cung cấp thông tin về hàng hóa dịch vụ cho người
tiêu dùng 1 phạt tiền từ 10 000 000 đồng đến 20 000 000 đồng đối với thương nhân
có một trong các hành vi vi phạm về cung cấp thông tin về hàng hóa dịch vụ cho
người tiêu dùng sau đây: a) không cảnh báo khả năng hàng hóa dịch vụ có ảnh hưởng
xấu đến sức khỏe tính mạng tài sản của người tiêu dùng và các biện pháp phòng
ngừa theo quy định; b) không cung cấp thông tin về khả năng cung ứng linh kiện
phụ kiện thay thế của hàng hóa theo quy định; c) không cung cấp hướng dẫn sử dụng
hoặc không cung cấp thông tin về điều kiện thời hạn địa điểm thủ tục bảo hành
trong trường hợp hàng hóa dịch vụ có bảo hành theo quy định; d) không thông báo
chính xác đầy đủ cho người tiêu dùng về hợp đồng theo mẫu điều kiện giao dịch
chung trước khi giao dịch theo quy định; đ) che giấu thông tin hoặc cung cấp thông
tin không đầy đủ sai lệch không chính xác cho người tiêu dùng theo quy định'
- 'passage: kê khai hoạt động chăn nuôi 1 tổ chức cá nhân chăn nuôi phải kê khai
hoạt động chăn nuôi về loại số lượng vật nuôi theo quy định tại phụ lục ii ban
hành kèm theo thông tư này 2 tổ chức cá nhân chăn nuôi thực hiện kê khai hoạt
động chăn nuôi từ ngày 25 đến ngày 30 của tháng cuối quý theo biểu mẫu quy định
tại phụ lục iii ban hành kèm theo thông tư này'
- source_sentence: 'query: Quy định về xử lý dữ liệu cá nhân của trẻ em áp dụng từ
ngày nào?'
sentences:
- 'passage: nguyên tắc bổ nhiệm và xếp lương theo chức danh nghề nghiệp đối với
nhân viên thiết bị thí nghiệm 1 việc bổ nhiệm vào chức danh nghề nghiệp đối với
nhân viên thiết bị thí nghiệm quy định tại thông tư này phải căn cứ vào vị trí
việc làm chức trách nhiệm vụ năng lực và chuyên môn nghiệp vụ của viên chức 2
khi bổ nhiệm từ các ngạch công chức hoặc chức danh nghề nghiệp viên chức hiện
giữ vào chức danh nghề nghiệp nhân viên thiết bị thí nghiệm không được kết hợp
nâng bậc lương viên chức'
- "['passage: xử lý dữ liệu cá nhân của trẻ em 2 việc xử lý dữ liệu cá nhân của\
\ trẻ em phải có sự đồng ý của trẻ em trong trường hợp trẻ em từ đủ 7 tuổi trở\
\ lên và có sự đồng ý của cha mẹ hoặc người giám hộ theo quy định trừ trường hợp\
\ quy định tại điều 17 nghị định này bên kiểm soát dữ liệu cá nhân bên xử lý dữ\
\ liệu cá nhân bên kiểm soát và xử lý dữ liệu cá nhân bên thứ ba phải xác minh\
\ tuổi của trẻ em trước khi xử lý dữ liệu cá nhân của trẻ em'\n 'passage: khoản\
\ 1 phạt tiền từ 200 000 đồng đến 500 000 đồng đối với một trong các hành vi sau\
\ đây: a người say rượu vào vũ trường nơi khiêu vũ công cộng phòng hát karaoke;\
\ b cho thuê cho mượn địa điểm làm vũ trường nơi khiêu vũ công cộng hoạt động\
\ karaoke mà không giám sát để xảy ra hoạt động mại dâm nghiện hút ma tuý đánh\
\ bạc; c sử dụng vũ nữ mà không đăng ký danh sách với cơ quan công an có thẩm\
\ quyền'\n 'passage: nghị định này quy định thi hành bộ luật dân sự về bảo đảm\
\ thực hiện nghĩa vụ bao gồm tài sản bảo đảm; xác lập thực hiện biện pháp bảo\
\ đảm thực hiện nghĩa vụ (sau đây gọi là biện pháp bảo đảm) và xử lý tài sản bảo\
\ đảm'\n 'passage: khoản 3 quá thời hạn 07 ngày kể từ thời điểm ấn định trong\
\ thỏa thuận bàn giao người đang chấp hành án phạt tù mà nước yêu cầu chuyển giao\
\ không tiếp nhận chuyển giao mà không có lý do chính đáng thì cơ quan đầu mối\
\ của bộ công an về công tác chuyển giao người đang chấp hành án phạt tù lập biên\
\ bản về việc này và thông báo ngay cho tòa án đã ra quyết định chuyển giao biết\
\ để xem xét hủy quyết định thi hành quyết định chuyển giao đồng thời thông báo\
\ cho nước yêu cầu chuyển giao biết'\n 'passage: các đơn vị bộ phận trong ban\
\ chỉ đạo 389 bộ tài chính 1 đơn vị thường trực ban chỉ đạo 389 bộ tài chính là\
\ tổng cục hải quan 2 bộ phận tham mưu giúp việc cho các phó trưởng ban trong\
\ việc triển khai công tác của ban chỉ đạo 389 bộ tài chính và ban chỉ đạo 389\
\ quốc gia bao gồm: a) tổng cục thuế: thanh tra; b) tổng cục hải quan: công chức\
\ tổng cục hải quan được cử biệt phái sang văn phòng thường trực ban chỉ đạo 389\
\ quốc gia 3 các đơn vị có lãnh đạo là thành viên ban chỉ đạo 389 bộ tài chính\
\ có trách nhiệm phân công cán bộ giúp việc cho lãnh đạo đơn vị mình'\n 'passage:\
\ hủy quyết định hoãn chấp hành án phạt tù 1 tòa án xem xét hủy quyết định hoãn\
\ chấp hành án phạt tù trong các trường hợp sau: a) người được hoãn chấp hành\
\ án phạt tù không cam kết chấp hành nghiêm chỉnh pháp luật hoặc thực hiện hành\
\ vi phạm tội mới bỏ trốn hoặc vi phạm pháp luật gây ảnh hưởng xấu đến an ninh\
\ trật tự an toàn xã hội; b) người được hoãn chấp hành án phạt tù có kết quả giám\
\ định xác định họ mắc bệnh tâm thần bệnh khác làm mất khả năng nhận thức hoặc\
\ khả năng điều khiển hành vi; c) người được hoãn chấp hành án phạt tù có kết\
\ quả giám định xác định họ đã hồi phục sức khỏe và đã bị đưa đến nơi chấp hành\
\ án phạt tù; d) người được hoãn chấp hành án phạt tù có đơn tự nguyện xin chấp\
\ hành án phạt tù']"
- 'passage: nghị định này có hiệu lực thi hành kể từ ngày ký ban hành các quy định
tại khoản 2 khoản 3 khoản 4 điều 1 nghị định này có hiệu lực thi hành kể từ ngày
01 tháng 01 năm 2021'
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on intfloat/multilingual-e5-small
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small) <!-- at revision c007d7ef6fd86656326059b28395a7a03a7c5846 -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'query: Quy định về xử lý dữ liệu cá nhân của trẻ em áp dụng từ ngày nào?',
'passage: nghị định này có hiệu lực thi hành kể từ ngày ký ban hành các quy định tại khoản 2 khoản 3 khoản 4 điều 1 nghị định này có hiệu lực thi hành kể từ ngày 01 tháng 01 năm 2021',
"['passage: xử lý dữ liệu cá nhân của trẻ em 2 việc xử lý dữ liệu cá nhân của trẻ em phải có sự đồng ý của trẻ em trong trường hợp trẻ em từ đủ 7 tuổi trở lên và có sự đồng ý của cha mẹ hoặc người giám hộ theo quy định trừ trường hợp quy định tại điều 17 nghị định này bên kiểm soát dữ liệu cá nhân bên xử lý dữ liệu cá nhân bên kiểm soát và xử lý dữ liệu cá nhân bên thứ ba phải xác minh tuổi của trẻ em trước khi xử lý dữ liệu cá nhân của trẻ em'\n 'passage: khoản 1 phạt tiền từ 200 000 đồng đến 500 000 đồng đối với một trong các hành vi sau đây: a người say rượu vào vũ trường nơi khiêu vũ công cộng phòng hát karaoke; b cho thuê cho mượn địa điểm làm vũ trường nơi khiêu vũ công cộng hoạt động karaoke mà không giám sát để xảy ra hoạt động mại dâm nghiện hút ma tuý đánh bạc; c sử dụng vũ nữ mà không đăng ký danh sách với cơ quan công an có thẩm quyền'\n 'passage: nghị định này quy định thi hành bộ luật dân sự về bảo đảm thực hiện nghĩa vụ bao gồm tài sản bảo đảm; xác lập thực hiện biện pháp bảo đảm thực hiện nghĩa vụ (sau đây gọi là biện pháp bảo đảm) và xử lý tài sản bảo đảm'\n 'passage: khoản 3 quá thời hạn 07 ngày kể từ thời điểm ấn định trong thỏa thuận bàn giao người đang chấp hành án phạt tù mà nước yêu cầu chuyển giao không tiếp nhận chuyển giao mà không có lý do chính đáng thì cơ quan đầu mối của bộ công an về công tác chuyển giao người đang chấp hành án phạt tù lập biên bản về việc này và thông báo ngay cho tòa án đã ra quyết định chuyển giao biết để xem xét hủy quyết định thi hành quyết định chuyển giao đồng thời thông báo cho nước yêu cầu chuyển giao biết'\n 'passage: các đơn vị bộ phận trong ban chỉ đạo 389 bộ tài chính 1 đơn vị thường trực ban chỉ đạo 389 bộ tài chính là tổng cục hải quan 2 bộ phận tham mưu giúp việc cho các phó trưởng ban trong việc triển khai công tác của ban chỉ đạo 389 bộ tài chính và ban chỉ đạo 389 quốc gia bao gồm: a) tổng cục thuế: thanh tra; b) tổng cục hải quan: công chức tổng cục hải quan được cử biệt phái sang văn phòng thường trực ban chỉ đạo 389 quốc gia 3 các đơn vị có lãnh đạo là thành viên ban chỉ đạo 389 bộ tài chính có trách nhiệm phân công cán bộ giúp việc cho lãnh đạo đơn vị mình'\n 'passage: hủy quyết định hoãn chấp hành án phạt tù 1 tòa án xem xét hủy quyết định hoãn chấp hành án phạt tù trong các trường hợp sau: a) người được hoãn chấp hành án phạt tù không cam kết chấp hành nghiêm chỉnh pháp luật hoặc thực hiện hành vi phạm tội mới bỏ trốn hoặc vi phạm pháp luật gây ảnh hưởng xấu đến an ninh trật tự an toàn xã hội; b) người được hoãn chấp hành án phạt tù có kết quả giám định xác định họ mắc bệnh tâm thần bệnh khác làm mất khả năng nhận thức hoặc khả năng điều khiển hành vi; c) người được hoãn chấp hành án phạt tù có kết quả giám định xác định họ đã hồi phục sức khỏe và đã bị đưa đến nơi chấp hành án phạt tù; d) người được hoãn chấp hành án phạt tù có đơn tự nguyện xin chấp hành án phạt tù']",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 100,000 training samples
* Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
* Approximate statistics based on the first 1000 samples:
| | anchor | positive | negative |
|:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
| type | string | string | string |
| details | <ul><li>min: 10 tokens</li><li>mean: 27.45 tokens</li><li>max: 59 tokens</li></ul> | <ul><li>min: 5 tokens</li><li>mean: 245.47 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 512 tokens</li><li>mean: 512.0 tokens</li><li>max: 512 tokens</li></ul> |
* Samples:
| anchor | positive | negative |
|:-------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>query: Quân nhân dự bị được xếp trong đơn vị dự bị động viên thì phải có trách nhiệm như thế nào?</code> | <code>passage: "điều 4 trách nhiệm của quân nhân dự bị được xếp trong đơn vị dự bị động viên 1 quân nhân dự bị được xếp trong đơn vị dự bị động viên có trách nhiệm sau đây: a) kiểm tra sức khỏe; b) thực hiện lệnh gọi huấn luyện diễn tập kiểm tra sẵn sàng động viên sẵn sàng chiến đấu; c) thực hiện chế độ sinh hoạt đơn vị dự bị động viên và nhiệm vụ do người chỉ huy giao; d) thực hiện lệnh huy động để bổ sung cho lực lượng thường trực của quân đội nhân dân 2 quân nhân dự bị giữ chức vụ chỉ huy đơn vị dự bị động viên có trách nhiệm sau đây: a) thực hiện quy định tại khoản 1 điều này; b) nắm tình hình số lượng chất lượng đơn vị; duy trì đơn vị sinh hoạt theo chế độ và thực hiện chế độ báo cáo; c) quản lý chỉ huy đơn vị khi huấn luyện diễn tập kiểm tra sẵn sàng động viên sẵn sàng chiến đấu; d) quản lý chỉ huy đơn vị để bổ sung cho lực lượng thường trực của quân đội nhân dân "</code> | <code>['passage: thông tư này quy định hình thức nội dung thời gian sinh hoạt của quân nhân dự bị đã xếp vào đơn vị dự bị động viên'<br> 'passage: “điều 16 thời hạn thanh tra của đoàn thanh tra chuyên ngành 1 thời hạn thực hiện một cuộc thanh tra chuyên ngành được quy định như sau: a) cuộc thanh tra chuyên ngành do thanh tra bộ tổng cục cục thuộc bộ tiến hành không quá 45 ngày; trường hợp phức tạp có thể kéo dài hơn nhưng không quá 70 ngày; b) cuộc thanh tra chuyên ngành do thanh tra sở chi cục thuộc sở tiến hành không quá 30 ngày; trường hợp phức tạp có thể kéo dài hơn nhưng không quá 45 ngày 2 thời hạn của cuộc thanh tra được tính từ ngày công bố quyết định thanh tra đến ngày kết thúc việc thanh tra tại nơi được thanh tra 3 việc kéo dài thời hạn thanh tra do người ra quyết định thanh tra chuyên ngành quyết định ”'<br> 'passage: chương i quy định chung điều 1 phạm vi điều chỉnh thông tư này quy định chi tiết khoản 2 điều 39 khoản 2 điều 75 luật khoáng sản; khoản 5 điều 7 khoản 3 điều 35 khoản 2 đ...</code> |
| <code>query: Quân nhân chuyên nghiệp dự bị và hạ sĩ quan, binh sĩ dự bị sắp xếp vào đơn vị dự bị động viên là bao nhiêu tuổi?</code> | <code>passage: "điều 17 độ tuổi quân nhân dự bị sắp xếp vào đơn vị dự bị động viên trong thời bình 1 độ tuổi sĩ quan dự bị sắp xếp vào đơn vị dự bị động viên thực hiện theo quy định của luật sĩ quan quân đội nhân dân việt nam 2 độ tuổi quân nhân chuyên nghiệp dự bị và hạ sĩ quan binh sĩ dự bị sắp xếp vào đơn vị dự bị động viên được quy định như sau: a) nam quân nhân chuyên nghiệp dự bị không quá 40 tuổi; hạ sĩ quan binh sĩ dự bị không quá 35 tuổi được sắp xếp vào đơn vị chiến đấu; b) nam quân nhân chuyên nghiệp dự bị và hạ sĩ quan binh sĩ dự bị không quá 45 tuổi; nữ quân nhân dự bị không quá 40 tuổi được sắp xếp vào đơn vị bảo đảm chiến đấu "</code> | <code>['passage: nhóm tuổi phục vụ của hạ sĩ quan binh sĩ dự bị 1 tuổi phục vụ của hạ sĩ quan binh sĩ dự bị được chia thành hai nhóm như sau: 1 nhóm a: công dân nam đến hết 35 tuổi công dân nữ đến hết 30 tuổi; 2 nhóm b: công dân nam từ 36 tuổi đến hết 45 tuổi công dân nữ từ 31 tuổi đến hết 40 tuổi'<br> 'passage: "điều 57 mức đóng nguồn hình thành và sử dụng quỹ bảo hiểm thất nghiệp 1 mức đóng và trách nhiệm đóng bảo hiểm thất nghiệp được quy định như sau: a) người lao động đóng bằng 1% tiền lương tháng; b) người sử dụng lao động đóng bằng 1% quỹ tiền lương tháng của những người lao động đang tham gia bảo hiểm thất nghiệp; c) nhà nước hỗ trợ tối đa 1% quỹ tiền lương tháng đóng bảo hiểm thất nghiệp của những người lao động đang tham gia bảo hiểm thất nghiệp và do ngân sách trung ương bảo đảm 2 nguồn hình thành quỹ bảo hiểm thất nghiệp bao gồm: a) các khoản đóng và hỗ trợ theo quy định tại khoản 1 điều này; b) tiền sinh lời của hoạt động đầu tư từ quỹ; c) nguồn thu hợp pháp khác 3 quỹ bảo hiểm thấ...</code> |
| <code>query: Văn phòng Bộ Văn hóa Thể thao và Du lịch có con dấu và tài khoản riêng hay không?</code> | <code>passage: vị trí và chức năng văn phòng bộ là tổ chức hành chính thuộc bộ văn hóa thể thao và du lịch có chức năng tham mưu tổng hợp điều phối giúp bộ trưởng tổ chức các hoạt động chung của bộ; theo dõi đôn đốc các tổ chức đơn vị thuộc bộ thực hiện chương trình kế hoạch công tác của bộ; kiểm soát thủ tục hành chính cải cách hành chính tổ chức triển khai thực hiện cơ chế một cửa một cửa liên thông trong giải quyết thủ tục hành chính theo quy định của pháp luật; bảo đảm điều kiện vật chất kỹ thuật phương tiện làm việc cho hoạt động của lãnh đạo bộ và các cơ quan tổ chức đơn vị sử dụng ngân sách qua văn phòng bộ văn phòng bộ có con dấu riêng và có tài khoản để giao dịch theo quy định của pháp luật</code> | <code>['passage: khoản 3 sở văn hóa thể thao và du lịch sở văn hóa và thể thao sở du lịch có tư cách pháp nhân có con dấu và tài khoản riêng; chịu sự chỉ đạo quản lý về tổ chức biên chế và công tác của ủy ban nhân dân cấp tỉnh đồng thời chịu sự chỉ đạo kiểm tra về nghiệp vụ của bộ văn hóa thể thao và du lịch'<br> 'passage: điều 8 ủy ban quốc phòng và an ninh xử lý các đơn thư có nội dung sau: 1 kiến nghị khiếu nại về việc thực hiện chế độ chính sách trong quân đội và công an; về nhà đất do bộ quốc phòng và bộ công an quản lý và các kiến nghị khiếu nại khác thuộc lĩnh vực ủy ban phụ trách; 2 tố cáo cơ quan tổ chức cá nhân thuộc quân đội công an vi phạm pháp luật trừ đơn thư quy định tại khoản 4 điều 5 của nghị quyết này'<br> 'passage: điều 33 điều chỉnh giấy phép hành nghề 1 điều chỉnh giấy phép hành nghề đối với các chức danh bác sỹ y sỹ điều dưỡng hộ sinh kỹ thuật y dinh dưỡng lâm sàng cấp cứu viên ngoại viện và tâm lý lâm sàng khi bổ sung thay đổi phạm vi hành nghề khám bệnh chữa bệnh 2 điều kiệ...</code> |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 32
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `fp16`: True
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 8
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: True
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: proportional
</details>
### Training Logs
| Epoch | Step | Training Loss |
|:-----:|:----:|:-------------:|
| 0.032 | 100 | 1.1356 |
| 0.064 | 200 | 0.1415 |
| 0.096 | 300 | 0.1214 |
| 0.128 | 400 | 0.1223 |
| 0.16 | 500 | 0.1217 |
| 0.192 | 600 | 0.0905 |
| 0.224 | 700 | 0.1161 |
| 0.256 | 800 | 0.1062 |
| 0.288 | 900 | 0.0963 |
| 0.32 | 1000 | 0.0999 |
| 0.352 | 1100 | 0.1094 |
| 0.384 | 1200 | 0.0947 |
| 0.416 | 1300 | 0.0836 |
| 0.448 | 1400 | 0.0873 |
| 0.48 | 1500 | 0.0845 |
| 0.512 | 1600 | 0.0917 |
| 0.544 | 1700 | 0.0777 |
| 0.576 | 1800 | 0.0775 |
| 0.608 | 1900 | 0.0827 |
| 0.64 | 2000 | 0.0746 |
| 0.672 | 2100 | 0.0722 |
| 0.704 | 2200 | 0.0596 |
| 0.736 | 2300 | 0.0693 |
| 0.768 | 2400 | 0.0654 |
| 0.8 | 2500 | 0.064 |
| 0.832 | 2600 | 0.0795 |
| 0.864 | 2700 | 0.0656 |
| 0.896 | 2800 | 0.061 |
| 0.928 | 2900 | 0.06 |
| 0.96 | 3000 | 0.0551 |
| 0.992 | 3100 | 0.0545 |
### Framework Versions
- Python: 3.11.13
- Sentence Transformers: 4.1.0
- Transformers: 4.52.4
- PyTorch: 2.6.0+cu124
- Accelerate: 1.8.1
- Datasets: 3.6.0
- Tokenizers: 0.21.2
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
SwetaJena/llama-3.2-1B-elephant_numbers_student_12
|
SwetaJena
| 2025-08-20T07:07:14Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"llama",
"trl",
"en",
"base_model:unsloth/Llama-3.2-1B-Instruct",
"base_model:finetune:unsloth/Llama-3.2-1B-Instruct",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T07:07:09Z |
---
base_model: unsloth/Llama-3.2-1B-Instruct
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** SwetaJena
- **License:** apache-2.0
- **Finetuned from model :** unsloth/Llama-3.2-1B-Instruct
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
lautan/blockassist-bc-gentle_patterned_goat_1755671818
|
lautan
| 2025-08-20T07:06:52Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"gentle patterned goat",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:06:49Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- gentle patterned goat
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
RiggityWrckd/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated-Q8_0-GGUF
|
RiggityWrckd
| 2025-08-20T07:05:47Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"abliterated",
"uncensored",
"llama-cpp",
"gguf-my-repo",
"text-generation",
"en",
"base_model:huihui-ai/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated",
"base_model:quantized:huihui-ai/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-20T07:03:39Z |
---
license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen3-30B-A3B-Thinking-2507/blob/main/LICENSE
language:
- en
base_model: huihui-ai/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated
pipeline_tag: text-generation
library_name: transformers
tags:
- abliterated
- uncensored
- llama-cpp
- gguf-my-repo
---
# RiggityWrckd/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated-Q8_0-GGUF
This model was converted to GGUF format from [`huihui-ai/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated`](https://huggingface.co/huihui-ai/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated) using llama.cpp via the ggml.ai's [GGUF-my-repo](https://huggingface.co/spaces/ggml-org/gguf-my-repo) space.
Refer to the [original model card](https://huggingface.co/huihui-ai/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated) for more details on the model.
## Use with llama.cpp
Install llama.cpp through brew (works on Mac and Linux)
```bash
brew install llama.cpp
```
Invoke the llama.cpp server or the CLI.
### CLI:
```bash
llama-cli --hf-repo RiggityWrckd/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated-Q8_0-GGUF --hf-file huihui-qwen3-30b-a3b-thinking-2507-abliterated-q8_0.gguf -p "The meaning to life and the universe is"
```
### Server:
```bash
llama-server --hf-repo RiggityWrckd/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated-Q8_0-GGUF --hf-file huihui-qwen3-30b-a3b-thinking-2507-abliterated-q8_0.gguf -c 2048
```
Note: You can also use this checkpoint directly through the [usage steps](https://github.com/ggerganov/llama.cpp?tab=readme-ov-file#usage) listed in the Llama.cpp repo as well.
Step 1: Clone llama.cpp from GitHub.
```
git clone https://github.com/ggerganov/llama.cpp
```
Step 2: Move into the llama.cpp folder and build it with `LLAMA_CURL=1` flag along with other hardware-specific flags (for ex: LLAMA_CUDA=1 for Nvidia GPUs on Linux).
```
cd llama.cpp && LLAMA_CURL=1 make
```
Step 3: Run inference through the main binary.
```
./llama-cli --hf-repo RiggityWrckd/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated-Q8_0-GGUF --hf-file huihui-qwen3-30b-a3b-thinking-2507-abliterated-q8_0.gguf -p "The meaning to life and the universe is"
```
or
```
./llama-server --hf-repo RiggityWrckd/Huihui-Qwen3-30B-A3B-Thinking-2507-abliterated-Q8_0-GGUF --hf-file huihui-qwen3-30b-a3b-thinking-2507-abliterated-q8_0.gguf -c 2048
```
|
aralper18/blockassist-bc-gilded_tangled_albatross_1755673460
|
aralper18
| 2025-08-20T07:04:57Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"gilded tangled albatross",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:04:49Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- gilded tangled albatross
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
thanobidex/blockassist-bc-colorful_shiny_hare_1755671857
|
thanobidex
| 2025-08-20T07:04:08Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"colorful shiny hare",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:04:05Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- colorful shiny hare
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
sampingkaca72/blockassist-bc-armored_stealthy_elephant_1755671897
|
sampingkaca72
| 2025-08-20T07:04:07Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"armored stealthy elephant",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:04:03Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- armored stealthy elephant
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
NotoriousH2/qwen3-1.7b-base-MED-Instruct
|
NotoriousH2
| 2025-08-20T07:03:09Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"trl",
"sft",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-20T07:00:53Z |
---
library_name: transformers
tags:
- trl
- sft
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
roeker/blockassist-bc-quick_wiry_owl_1755673266
|
roeker
| 2025-08-20T07:02:55Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"quick wiry owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T07:01:54Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- quick wiry owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF
|
mradermacher
| 2025-08-20T07:01:15Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"peft",
"lora",
"roleplay",
"creative-writing",
"consequence-based-alignment",
"gpt-oss",
"openai-harmony",
"en",
"zh",
"dataset:NousResearch/Hermes-3-Dataset",
"dataset:Anthropic/hh-rlhf",
"dataset:teknium/OpenHermes-2.5",
"dataset:microsoft/orca-math-word-problems-200k",
"dataset:WizardLM/WizardLM_evol_instruct_V2_196k",
"dataset:calme/legalkit",
"dataset:nvidia/Llama-3.1-Nemotron-70B-Instruct-HF",
"dataset:Yoondi/bluemoon-roleplay-chat-jsonl",
"dataset:LooksJuicy/Chinese-Roleplay-Novel",
"dataset:zhouzr/pk-roleplay",
"dataset:openerotica/long-roleplay-v0.1",
"dataset:mrcuddle/nous-character-codex",
"dataset:Arasaaf/myuri_roleplay",
"dataset:AlekseyKorshuk/gpt-roleplay-realm-chatml",
"dataset:diwank/gpt_roleplay_realm-chatml",
"dataset:Gryphe/Sonnet3.5-Charcard-Roleplay",
"dataset:hieunguyenminh/roleplay",
"dataset:zerofata/Roleplay-Anime-Characters",
"dataset:Locutusque/FalseReject-sharegpt",
"dataset:QuixiAI/open-instruct-uncensored",
"dataset:allenai/WildChat-4.8M-Full",
"dataset:nvidia/Llama-Nemotron-Post-Training-Dataset",
"dataset:WizardLMTeam/WizardLM_evol_instruct_V2_196k",
"dataset:nvidia/OpenCodeReasoning",
"dataset:MaziyarPanahi/calme-legalkit-v0.2",
"dataset:Nitral-AI/Cybersecurity-ShareGPT",
"dataset:savaniDhruv/Cybersecurity_Attack_Dataset",
"dataset:openerotica/erotica-analysis",
"dataset:demelin/moral_stories",
"base_model:paperboygold/gpt-oss-sanguine-20b-v1",
"base_model:adapter:paperboygold/gpt-oss-sanguine-20b-v1",
"license:mit",
"endpoints_compatible",
"region:us",
"imatrix",
"conversational"
] | null | 2025-08-19T19:32:19Z |
---
base_model: paperboygold/gpt-oss-sanguine-20b-v1
datasets:
- NousResearch/Hermes-3-Dataset
- Anthropic/hh-rlhf
- teknium/OpenHermes-2.5
- microsoft/orca-math-word-problems-200k
- WizardLM/WizardLM_evol_instruct_V2_196k
- calme/legalkit
- nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
- Yoondi/bluemoon-roleplay-chat-jsonl
- LooksJuicy/Chinese-Roleplay-Novel
- zhouzr/pk-roleplay
- openerotica/long-roleplay-v0.1
- mrcuddle/nous-character-codex
- Arasaaf/myuri_roleplay
- AlekseyKorshuk/gpt-roleplay-realm-chatml
- diwank/gpt_roleplay_realm-chatml
- Gryphe/Sonnet3.5-Charcard-Roleplay
- hieunguyenminh/roleplay
- zerofata/Roleplay-Anime-Characters
- Locutusque/FalseReject-sharegpt
- QuixiAI/open-instruct-uncensored
- allenai/WildChat-4.8M-Full
- nvidia/Llama-Nemotron-Post-Training-Dataset
- WizardLMTeam/WizardLM_evol_instruct_V2_196k
- nvidia/OpenCodeReasoning
- MaziyarPanahi/calme-legalkit-v0.2
- Nitral-AI/Cybersecurity-ShareGPT
- savaniDhruv/Cybersecurity_Attack_Dataset
- openerotica/erotica-analysis
- demelin/moral_stories
language:
- en
- zh
library_name: transformers
license: mit
mradermacher:
readme_rev: 1
quantized_by: mradermacher
tags:
- peft
- lora
- roleplay
- creative-writing
- consequence-based-alignment
- gpt-oss
- openai-harmony
---
## About
<!-- ### quantize_version: 2 -->
<!-- ### output_tensor_quantised: 1 -->
<!-- ### convert_type: hf -->
<!-- ### vocab_type: -->
<!-- ### tags: nicoboss -->
<!-- ### quants: Q2_K IQ3_M Q4_K_S IQ3_XXS Q3_K_M small-IQ4_NL Q4_K_M IQ2_M Q6_K IQ4_XS Q2_K_S IQ1_M Q3_K_S IQ2_XXS Q3_K_L IQ2_XS Q5_K_S IQ2_S IQ1_S Q5_K_M Q4_0 IQ3_XS Q4_1 IQ3_S -->
<!-- ### quants_skip: -->
<!-- ### skip_mmproj: -->
weighted/imatrix quants of https://huggingface.co/paperboygold/gpt-oss-sanguine-20b-v1
<!-- provided-files -->
***For a convenient overview and download list, visit our [model page for this model](https://hf.tst.eu/model#gpt-oss-sanguine-20b-v1-i1-GGUF).***
static quants are available at https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-GGUF
## Usage
If you are unsure how to use GGUF files, refer to one of [TheBloke's
READMEs](https://huggingface.co/TheBloke/KafkaLM-70B-German-V0.1-GGUF) for
more details, including on how to concatenate multi-part files.
## Provided Quants
(sorted by size, not necessarily quality. IQ-quants are often preferable over similar sized non-IQ quants)
| Link | Type | Size/GB | Notes |
|:-----|:-----|--------:|:------|
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.imatrix.gguf) | imatrix | 0.1 | imatrix file (for creating your own qwuants) |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ1_M.gguf) | i1-IQ1_M | 12.1 | mostly desperate |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ1_S.gguf) | i1-IQ1_S | 12.1 | for the desperate |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ2_XXS.gguf) | i1-IQ2_XXS | 12.1 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ2_XS.gguf) | i1-IQ2_XS | 12.1 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q3_K_S.gguf) | i1-Q3_K_S | 12.2 | IQ3_XS probably better |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ2_M.gguf) | i1-IQ2_M | 12.2 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ2_S.gguf) | i1-IQ2_S | 12.2 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ3_S.gguf) | i1-IQ3_S | 12.2 | beats Q3_K* |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ3_XS.gguf) | i1-IQ3_XS | 12.2 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ3_XXS.gguf) | i1-IQ3_XXS | 12.2 | lower quality |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q2_K.gguf) | i1-Q2_K | 12.2 | IQ3_XXS probably better |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ4_XS.gguf) | i1-IQ4_XS | 12.2 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q2_K_S.gguf) | i1-Q2_K_S | 12.2 | very low quality |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q4_0.gguf) | i1-Q4_0 | 12.2 | fast, low quality |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-IQ3_M.gguf) | i1-IQ3_M | 12.3 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q3_K_M.gguf) | i1-Q3_K_M | 13.0 | IQ3_S probably better |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q3_K_L.gguf) | i1-Q3_K_L | 13.4 | IQ3_M probably better |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q4_1.gguf) | i1-Q4_1 | 13.5 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q4_K_S.gguf) | i1-Q4_K_S | 14.8 | optimal size/speed/quality |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q4_K_M.gguf) | i1-Q4_K_M | 15.9 | fast, recommended |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q5_K_S.gguf) | i1-Q5_K_S | 16.0 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q5_K_M.gguf) | i1-Q5_K_M | 17.0 | |
| [GGUF](https://huggingface.co/mradermacher/gpt-oss-sanguine-20b-v1-i1-GGUF/resolve/main/gpt-oss-sanguine-20b-v1.i1-Q6_K.gguf) | i1-Q6_K | 22.3 | practically like static Q6_K |
Here is a handy graph by ikawrakow comparing some lower-quality quant
types (lower is better):

And here are Artefact2's thoughts on the matter:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
## FAQ / Model Request
See https://huggingface.co/mradermacher/model_requests for some answers to
questions you might have and/or if you want some other model quantized.
## Thanks
I thank my company, [nethype GmbH](https://www.nethype.de/), for letting
me use its servers and providing upgrades to my workstation to enable
this work in my free time. Additional thanks to [@nicoboss](https://huggingface.co/nicoboss) for giving me access to his private supercomputer, enabling me to provide many more imatrix quants, at much higher quality, than I would otherwise be able to.
<!-- end -->
|
arianaazarbal/standard_tpr_0.65_test-20250820_065535-policy-adapter
|
arianaazarbal
| 2025-08-20T07:00:04Z | 0 | 0 | null |
[
"safetensors",
"region:us"
] | null | 2025-08-20T06:59:06Z |
# Policy Model LoRA Adapter (GRPO/DPO)
Experiment: standard_tpr_0.65_test
Timestamp: 20250820_065535
This model was trained as part of the deception-evasion-honesty experiments.
## Model Details
- **Type**: Policy Model LoRA Adapter (GRPO/DPO)
- **Experiment Name**: standard_tpr_0.65_test
- **Training Timestamp**: 20250820_065535
|
coelacanthxyz/blockassist-bc-finicky_thriving_grouse_1755671409
|
coelacanthxyz
| 2025-08-20T06:59:02Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"finicky thriving grouse",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:58:56Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- finicky thriving grouse
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
arianaazarbal/standard_tpr_0.65_test-20250820_065535-sft-adapter
|
arianaazarbal
| 2025-08-20T06:58:34Z | 0 | 0 | null |
[
"pytorch",
"region:us"
] | null | 2025-08-20T06:57:33Z |
# SFT LoRA Adapter
Experiment: standard_tpr_0.65_test
Timestamp: 20250820_065535
This model was trained as part of the deception-evasion-honesty experiments.
## Model Details
- **Type**: SFT LoRA Adapter
- **Experiment Name**: standard_tpr_0.65_test
- **Training Timestamp**: 20250820_065535
|
arianaazarbal/standard_tpr_0.65_test-20250820_065535-lr-detector
|
arianaazarbal
| 2025-08-20T06:57:33Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-08-20T06:57:32Z |
# Logistic Regression Lie Detector
Experiment: standard_tpr_0.65_test
Timestamp: 20250820_065535
This model was trained as part of the deception-evasion-honesty experiments.
## Model Details
- **Type**: Logistic Regression Lie Detector
- **Experiment Name**: standard_tpr_0.65_test
- **Training Timestamp**: 20250820_065535
|
ywjang/my_awesome_video_cls_model
|
ywjang
| 2025-08-20T06:56:25Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"videomae",
"video-classification",
"generated_from_trainer",
"base_model:MCG-NJU/videomae-base",
"base_model:finetune:MCG-NJU/videomae-base",
"license:cc-by-nc-4.0",
"endpoints_compatible",
"region:us"
] |
video-classification
| 2025-08-20T06:55:49Z |
---
library_name: transformers
license: cc-by-nc-4.0
base_model: MCG-NJU/videomae-base
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: my_awesome_video_cls_model
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# my_awesome_video_cls_model
This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.1477
- Accuracy: 0.6
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:------:|:----:|:---------------:|:--------:|
| 1.1083 | 0.9967 | 299 | 1.1837 | 0.6 |
| 0.885 | 1.0033 | 300 | 1.1477 | 0.6 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
ihsanridzi/blockassist-bc-wiry_flexible_owl_1755671197
|
ihsanridzi
| 2025-08-20T06:53:10Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"wiry flexible owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:53:06Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- wiry flexible owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
dlrbcks/my_awesome_video_cls_model
|
dlrbcks
| 2025-08-20T06:52:57Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"videomae",
"video-classification",
"generated_from_trainer",
"base_model:MCG-NJU/videomae-base",
"base_model:finetune:MCG-NJU/videomae-base",
"license:cc-by-nc-4.0",
"endpoints_compatible",
"region:us"
] |
video-classification
| 2025-08-20T06:52:20Z |
---
library_name: transformers
license: cc-by-nc-4.0
base_model: MCG-NJU/videomae-base
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: my_awesome_video_cls_model
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# my_awesome_video_cls_model
This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.9785
- Accuracy: 0.7
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|
| 0.7572 | 1.0 | 300 | 0.9785 | 0.7 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
vertov/my_awesome_video_cls_model
|
vertov
| 2025-08-20T06:52:06Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"videomae",
"video-classification",
"generated_from_trainer",
"base_model:MCG-NJU/videomae-base",
"base_model:finetune:MCG-NJU/videomae-base",
"license:cc-by-nc-4.0",
"endpoints_compatible",
"region:us"
] |
video-classification
| 2025-08-20T06:51:47Z |
---
library_name: transformers
license: cc-by-nc-4.0
base_model: MCG-NJU/videomae-base
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: my_awesome_video_cls_model
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# my_awesome_video_cls_model
This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.3292
- Accuracy: 0.9286
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 900
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:------:|:----:|:---------------:|:--------:|
| 1.6978 | 0.3333 | 300 | 1.5935 | 0.3571 |
| 0.535 | 1.3333 | 600 | 0.5957 | 0.7429 |
| 0.0213 | 2.3333 | 900 | 0.3292 | 0.9286 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
sonspeed/bartpho-vietnews
|
sonspeed
| 2025-08-20T06:51:59Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"mbart",
"text2text-generation",
"generated_from_trainer",
"base_model:vinai/bartpho-word",
"base_model:finetune:vinai/bartpho-word",
"license:mit",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T19:28:40Z |
---
library_name: transformers
license: mit
base_model: vinai/bartpho-word
tags:
- generated_from_trainer
model-index:
- name: bartpho-vietnews
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# bartpho-vietnews
This model is a fine-tuned version of [vinai/bartpho-word](https://huggingface.co/vinai/bartpho-word) on an unknown dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 16
- eval_batch_size: 8
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 3
### Training results
### Framework versions
- Transformers 4.52.4
- Pytorch 2.6.0+cu124
- Datasets 3.6.0
- Tokenizers 0.21.2
|
LSDddd/my_awesome_video_cls_model
|
LSDddd
| 2025-08-20T06:51:22Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"videomae",
"video-classification",
"generated_from_trainer",
"base_model:MCG-NJU/videomae-base",
"base_model:finetune:MCG-NJU/videomae-base",
"license:cc-by-nc-4.0",
"endpoints_compatible",
"region:us"
] |
video-classification
| 2025-08-20T06:51:01Z |
---
library_name: transformers
license: cc-by-nc-4.0
base_model: MCG-NJU/videomae-base
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: my_awesome_video_cls_model
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# my_awesome_video_cls_model
This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.1385
- Accuracy: 0.6429
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|
| 1.1378 | 1.0 | 300 | 1.1385 | 0.6429 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
sdagsadgd/blockassist-bc-sedate_squeaky_salamander_1755669285
|
sdagsadgd
| 2025-08-20T06:51:17Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"sedate squeaky salamander",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:51:03Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- sedate squeaky salamander
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
mang3dd/blockassist-bc-tangled_slithering_alligator_1755671092
|
mang3dd
| 2025-08-20T06:50:51Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"tangled slithering alligator",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:50:48Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- tangled slithering alligator
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
hyuk78/my_awesome_video_cls_model
|
hyuk78
| 2025-08-20T06:49:59Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"videomae",
"video-classification",
"generated_from_trainer",
"base_model:MCG-NJU/videomae-base",
"base_model:finetune:MCG-NJU/videomae-base",
"license:cc-by-nc-4.0",
"endpoints_compatible",
"region:us"
] |
video-classification
| 2025-08-20T06:49:47Z |
---
library_name: transformers
license: cc-by-nc-4.0
base_model: MCG-NJU/videomae-base
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: my_awesome_video_cls_model
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# my_awesome_video_cls_model
This model is a fine-tuned version of [MCG-NJU/videomae-base](https://huggingface.co/MCG-NJU/videomae-base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.0870
- Accuracy: 0.5857
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_ratio: 0.1
- training_steps: 300
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|
| 1.022 | 1.0 | 300 | 1.0870 | 0.5857 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
roeker/blockassist-bc-quick_wiry_owl_1755672446
|
roeker
| 2025-08-20T06:48:48Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"quick wiry owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:48:13Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- quick wiry owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
taochengfei/llama-3.2-3b-it-gsm8k_main_merged
|
taochengfei
| 2025-08-20T06:47:19Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-20T06:38:35Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
Lennard-Heuer/testytesty
|
Lennard-Heuer
| 2025-08-20T06:46:19Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-01T08:27:33Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755670784
|
lisaozill03
| 2025-08-20T06:45:45Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rugged prickly alpaca",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:45:41Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rugged prickly alpaca
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
taochengfei/llama-3.2-3b-it-gsm8k_main
|
taochengfei
| 2025-08-20T06:38:14Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T06:37:59Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
calegpedia/blockassist-bc-stealthy_slimy_rooster_1755670354
|
calegpedia
| 2025-08-20T06:37:43Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"stealthy slimy rooster",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:37:39Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- stealthy slimy rooster
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rayonlabs/tournament-tourn_e8b54a44823eb63b_20250819-0746e9d2-8da9-4255-98c3-9cad2ffa8040-5CqicZdx
|
rayonlabs
| 2025-08-20T06:35:15Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"arxiv:1910.09700",
"base_model:unsloth/Qwen2-0.5B",
"base_model:adapter:unsloth/Qwen2-0.5B",
"region:us"
] | null | 2025-08-20T06:35:08Z |
---
base_model: unsloth/Qwen2-0.5B
library_name: peft
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
### Framework versions
- PEFT 0.15.2
|
roeker/blockassist-bc-quick_wiry_owl_1755671627
|
roeker
| 2025-08-20T06:35:02Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"quick wiry owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:34:30Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- quick wiry owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755670547
|
Sayemahsjn
| 2025-08-20T06:33:55Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"playful feline octopus",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:33:51Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- playful feline octopus
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
katanyasekolah/blockassist-bc-silky_sprightly_cassowary_1755669888
|
katanyasekolah
| 2025-08-20T06:31:52Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"silky sprightly cassowary",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:31:49Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- silky sprightly cassowary
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
unitova/blockassist-bc-zealous_sneaky_raven_1755669858
|
unitova
| 2025-08-20T06:31:02Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"zealous sneaky raven",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:30:58Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- zealous sneaky raven
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
thanobidex/blockassist-bc-colorful_shiny_hare_1755669937
|
thanobidex
| 2025-08-20T06:30:55Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"colorful shiny hare",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:30:51Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- colorful shiny hare
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
roeker/blockassist-bc-quick_wiry_owl_1755671226
|
roeker
| 2025-08-20T06:27:56Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"quick wiry owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:27:49Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- quick wiry owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
liukevin666/blockassist-bc-yawning_striped_cassowary_1755670868
|
liukevin666
| 2025-08-20T06:25:11Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"yawning striped cassowary",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:22:17Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- yawning striped cassowary
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
unsloth/Qwen3-4B-Instruct-2507-GGUF
|
unsloth
| 2025-08-20T06:23:07Z | 47,079 | 41 |
transformers
|
[
"transformers",
"gguf",
"qwen",
"qwen3",
"unsloth",
"arxiv:2505.09388",
"base_model:Qwen/Qwen3-4B-Instruct-2507",
"base_model:quantized:Qwen/Qwen3-4B-Instruct-2507",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-08-06T19:21:40Z |
---
library_name: transformers
license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen3-4B-Instruct-2507/blob/main/LICENSE
base_model:
- Qwen/Qwen3-4B-Instruct-2507
tags:
- qwen
- qwen3
- unsloth
---
<div>
<p style="margin-bottom: 0; margin-top: 0;">
<strong>See <a href="https://huggingface.co/collections/unsloth/qwen3-680edabfb790c8c34a242f95">our collection</a> for all versions of Qwen3 including GGUF, 4-bit & 16-bit formats.</strong>
</p>
<p style="margin-bottom: 0;">
<em>Learn to run Qwen3-2507 correctly - <a href="https://docs.unsloth.ai/basics/qwen3-2507">Read our Guide</a>.</em>
</p>
<p style="margin-top: 0;margin-bottom: 0;">
<em><a href="https://docs.unsloth.ai/basics/unsloth-dynamic-v2.0-gguf">Unsloth Dynamic 2.0</a> achieves superior accuracy & outperforms other leading quants.</em>
</p>
<div style="display: flex; gap: 5px; align-items: center; ">
<a href="https://github.com/unslothai/unsloth/">
<img src="https://github.com/unslothai/unsloth/raw/main/images/unsloth%20new%20logo.png" width="133">
</a>
<a href="https://discord.gg/unsloth">
<img src="https://github.com/unslothai/unsloth/raw/main/images/Discord%20button.png" width="173">
</a>
<a href="https://docs.unsloth.ai/basics/qwen3-2507">
<img src="https://raw.githubusercontent.com/unslothai/unsloth/refs/heads/main/images/documentation%20green%20button.png" width="143">
</a>
</div>
<h1 style="margin-top: 0rem;">✨ Read our Qwen3-2507 Guide <a href="https://docs.unsloth.ai/basics/qwen3-2507">here</a>!</h1>
</div>
- Fine-tune Qwen3 (14B) for free using our Google [Colab notebook here](https://docs.unsloth.ai/get-started/unsloth-notebooks)!
- Read our Blog about Qwen3 support: [unsloth.ai/blog/qwen3](https://unsloth.ai/blog/qwen3)
- View the rest of our notebooks in our [docs here](https://docs.unsloth.ai/get-started/unsloth-notebooks).
- Run & export your fine-tuned model to Ollama, llama.cpp or HF.
| Unsloth supports | Free Notebooks | Performance | Memory use |
|-----------------|--------------------------------------------------------------------------------------------------------------------------|-------------|----------|
| **Qwen3 (14B)** | [▶️ Start on Colab](https://docs.unsloth.ai/get-started/unsloth-notebooks) | 3x faster | 70% less |
| **GRPO with Qwen3 (8B)** | [▶️ Start on Colab](https://docs.unsloth.ai/get-started/unsloth-notebooks) | 3x faster | 80% less |
| **Llama-3.2 (3B)** | [▶️ Start on Colab](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Llama3.2_(1B_and_3B)-Conversational.ipynb) | 2.4x faster | 58% less |
| **Llama-3.2 (11B vision)** | [▶️ Start on Colab](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Llama3.2_(11B)-Vision.ipynb) | 2x faster | 60% less |
| **Qwen2.5 (7B)** | [▶️ Start on Colab](https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Qwen2.5_(7B)-Alpaca.ipynb) | 2x faster | 60% less |
# Qwen3-4B-Instruct-2507
<a href="https://chat.qwen.ai" target="_blank" style="margin: 2px;">
<img alt="Chat" src="https://img.shields.io/badge/%F0%9F%92%9C%EF%B8%8F%20Qwen%20Chat%20-536af5" style="display: inline-block; vertical-align: middle;"/>
</a>
## Highlights
We introduce the updated version of the **Qwen3-4B non-thinking mode**, named **Qwen3-4B-Instruct-2507**, featuring the following key enhancements:
- **Significant improvements** in general capabilities, including **instruction following, logical reasoning, text comprehension, mathematics, science, coding and tool usage**.
- **Substantial gains** in long-tail knowledge coverage across **multiple languages**.
- **Markedly better alignment** with user preferences in **subjective and open-ended tasks**, enabling more helpful responses and higher-quality text generation.
- **Enhanced capabilities** in **256K long-context understanding**.

## Model Overview
**Qwen3-4B-Instruct-2507** has the following features:
- Type: Causal Language Models
- Training Stage: Pretraining & Post-training
- Number of Parameters: 4.0B
- Number of Paramaters (Non-Embedding): 3.6B
- Number of Layers: 36
- Number of Attention Heads (GQA): 32 for Q and 8 for KV
- Context Length: **262,144 natively**.
**NOTE: This model supports only non-thinking mode and does not generate ``<think></think>`` blocks in its output. Meanwhile, specifying `enable_thinking=False` is no longer required.**
For more details, including benchmark evaluation, hardware requirements, and inference performance, please refer to our [blog](https://qwenlm.github.io/blog/qwen3/), [GitHub](https://github.com/QwenLM/Qwen3), and [Documentation](https://qwen.readthedocs.io/en/latest/).
## Performance
| | GPT-4.1-nano-2025-04-14 | Qwen3-30B-A3B Non-Thinking | Qwen3-4B Non-Thinking | Qwen3-4B-Instruct-2507 |
|--- | --- | --- | --- | --- |
| **Knowledge** | | | |
| MMLU-Pro | 62.8 | 69.1 | 58.0 | **69.6** |
| MMLU-Redux | 80.2 | 84.1 | 77.3 | **84.2** |
| GPQA | 50.3 | 54.8 | 41.7 | **62.0** |
| SuperGPQA | 32.2 | 42.2 | 32.0 | **42.8** |
| **Reasoning** | | | |
| AIME25 | 22.7 | 21.6 | 19.1 | **47.4** |
| HMMT25 | 9.7 | 12.0 | 12.1 | **31.0** |
| ZebraLogic | 14.8 | 33.2 | 35.2 | **80.2** |
| LiveBench 20241125 | 41.5 | 59.4 | 48.4 | **63.0** |
| **Coding** | | | |
| LiveCodeBench v6 (25.02-25.05) | 31.5 | 29.0 | 26.4 | **35.1** |
| MultiPL-E | 76.3 | 74.6 | 66.6 | **76.8** |
| Aider-Polyglot | 9.8 | **24.4** | 13.8 | 12.9 |
| **Alignment** | | | |
| IFEval | 74.5 | **83.7** | 81.2 | 83.4 |
| Arena-Hard v2* | 15.9 | 24.8 | 9.5 | **43.4** |
| Creative Writing v3 | 72.7 | 68.1 | 53.6 | **83.5** |
| WritingBench | 66.9 | 72.2 | 68.5 | **83.4** |
| **Agent** | | | |
| BFCL-v3 | 53.0 | 58.6 | 57.6 | **61.9** |
| TAU1-Retail | 23.5 | 38.3 | 24.3 | **48.7** |
| TAU1-Airline | 14.0 | 18.0 | 16.0 | **32.0** |
| TAU2-Retail | - | 31.6 | 28.1 | **40.4** |
| TAU2-Airline | - | 18.0 | 12.0 | **24.0** |
| TAU2-Telecom | - | **18.4** | 17.5 | 13.2 |
| **Multilingualism** | | | |
| MultiIF | 60.7 | **70.8** | 61.3 | 69.0 |
| MMLU-ProX | 56.2 | **65.1** | 49.6 | 61.6 |
| INCLUDE | 58.6 | **67.8** | 53.8 | 60.1 |
| PolyMATH | 15.6 | 23.3 | 16.6 | **31.1** |
*: For reproducibility, we report the win rates evaluated by GPT-4.1.
## Quickstart
The code of Qwen3 has been in the latest Hugging Face `transformers` and we advise you to use the latest version of `transformers`.
With `transformers<4.51.0`, you will encounter the following error:
```
KeyError: 'qwen3'
```
The following contains a code snippet illustrating how to use the model generate content based on given inputs.
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-4B-Instruct-2507"
# load the tokenizer and the model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
# prepare the model input
prompt = "Give me a short introduction to large language model."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# conduct text completion
generated_ids = model.generate(
**model_inputs,
max_new_tokens=16384
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
content = tokenizer.decode(output_ids, skip_special_tokens=True)
print("content:", content)
```
For deployment, you can use `sglang>=0.4.6.post1` or `vllm>=0.8.5` or to create an OpenAI-compatible API endpoint:
- SGLang:
```shell
python -m sglang.launch_server --model-path Qwen/Qwen3-4B-Instruct-2507 --context-length 262144
```
- vLLM:
```shell
vllm serve Qwen/Qwen3-4B-Instruct-2507 --max-model-len 262144
```
**Note: If you encounter out-of-memory (OOM) issues, consider reducing the context length to a shorter value, such as `32,768`.**
For local use, applications such as Ollama, LMStudio, MLX-LM, llama.cpp, and KTransformers have also supported Qwen3.
## Agentic Use
Qwen3 excels in tool calling capabilities. We recommend using [Qwen-Agent](https://github.com/QwenLM/Qwen-Agent) to make the best use of agentic ability of Qwen3. Qwen-Agent encapsulates tool-calling templates and tool-calling parsers internally, greatly reducing coding complexity.
To define the available tools, you can use the MCP configuration file, use the integrated tool of Qwen-Agent, or integrate other tools by yourself.
```python
from qwen_agent.agents import Assistant
# Define LLM
llm_cfg = {
'model': 'Qwen3-4B-Instruct-2507',
# Use a custom endpoint compatible with OpenAI API:
'model_server': 'http://localhost:8000/v1', # api_base
'api_key': 'EMPTY',
}
# Define Tools
tools = [
{'mcpServers': { # You can specify the MCP configuration file
'time': {
'command': 'uvx',
'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
},
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
}
}
},
'code_interpreter', # Built-in tools
]
# Define Agent
bot = Assistant(llm=llm_cfg, function_list=tools)
# Streaming generation
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]
for responses in bot.run(messages=messages):
pass
print(responses)
```
## Best Practices
To achieve optimal performance, we recommend the following settings:
1. **Sampling Parameters**:
- We suggest using `Temperature=0.7`, `TopP=0.8`, `TopK=20`, and `MinP=0`.
- For supported frameworks, you can adjust the `presence_penalty` parameter between 0 and 2 to reduce endless repetitions. However, using a higher value may occasionally result in language mixing and a slight decrease in model performance.
2. **Adequate Output Length**: We recommend using an output length of 16,384 tokens for most queries, which is adequate for instruct models.
3. **Standardize Output Format**: We recommend using prompts to standardize model outputs when benchmarking.
- **Math Problems**: Include "Please reason step by step, and put your final answer within \boxed{}." in the prompt.
- **Multiple-Choice Questions**: Add the following JSON structure to the prompt to standardize responses: "Please show your choice in the `answer` field with only the choice letter, e.g., `"answer": "C"`."
### Citation
If you find our work helpful, feel free to give us a cite.
```
@misc{qwen3technicalreport,
title={Qwen3 Technical Report},
author={Qwen Team},
year={2025},
eprint={2505.09388},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2505.09388},
}
```
|
diffusers-internal-dev/gemini-prompt-expander
|
diffusers-internal-dev
| 2025-08-20T06:19:43Z | 0 | 1 |
diffusers
|
[
"diffusers",
"custom_code",
"arxiv:1910.09700",
"region:us"
] | null | 2025-08-08T11:24:00Z |
---
library_name: diffusers
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🧨 diffusers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
ihsanridzi/blockassist-bc-wiry_flexible_owl_1755669163
|
ihsanridzi
| 2025-08-20T06:19:22Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"wiry flexible owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:19:19Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- wiry flexible owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
VIDEOSl-Uppal-Farm-Girl-Viral-Video-Clips/New.full.videos.Uppal.Farm.Girl.Viral.Video.Official.Tutoria
|
VIDEOSl-Uppal-Farm-Girl-Viral-Video-Clips
| 2025-08-20T06:17:31Z | 0 | 0 | null |
[
"region:us"
] | null | 2025-08-20T06:12:29Z |
<animated-image data-catalyst=""><a href="https://sdu.sk/v9S" rel="nofollow" data-target="animated-image.originalLink"><img src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" alt="Foo" data-canonical-src="https://static.wixstatic.com/media/b249f9_adac8f70fb3f45b88691696c77de18f3~mv2.gif" style="max-width: 100%; display: inline-block;" data-target="animated-image.originalImage"></a>
|
Ruthwik/Medical-Audio-Visual-VQA
|
Ruthwik
| 2025-08-20T06:13:33Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"advanced_medical_vqa",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-20T06:12:36Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
GaneshNaiknavare/phase_3_fine_tunning_v.4
|
GaneshNaiknavare
| 2025-08-20T06:13:31Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"gguf",
"gemma3",
"image-text-to-text",
"text-generation-inference",
"unsloth",
"conversational",
"en",
"base_model:Atharv65/Phase_2_finetunning",
"base_model:quantized:Atharv65/Phase_2_finetunning",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
image-text-to-text
| 2025-08-20T06:01:26Z |
---
base_model: Atharv65/Phase_2_finetunning
tags:
- text-generation-inference
- transformers
- unsloth
- gemma3
license: apache-2.0
language:
- en
---
# Uploaded finetuned model
- **Developed by:** GaneshNaiknavare
- **License:** apache-2.0
- **Finetuned from model :** Atharv65/Phase_2_finetunning
This gemma3 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
Priyasi/Pretrain_TransVi_3
|
Priyasi
| 2025-08-20T06:13:27Z | 0 | 0 | null |
[
"safetensors",
"bert",
"custom_code",
"license:apache-2.0",
"region:us"
] | null | 2025-08-06T04:15:14Z |
---
license: apache-2.0
---
|
liukevin666/blockassist-bc-yawning_striped_cassowary_1755670198
|
liukevin666
| 2025-08-20T06:12:20Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"yawning striped cassowary",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:11:09Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- yawning striped cassowary
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755668731
|
lisaozill03
| 2025-08-20T06:11:11Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rugged prickly alpaca",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-20T06:11:07Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rugged prickly alpaca
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Subsets and Splits
Filtered Qwen2.5 Distill Models
Identifies specific configurations of models by filtering cards that contain 'distill', 'qwen2.5', '7b' while excluding certain base models and incorrect model ID patterns, uncovering unique model variants.
Filtered Model Cards Count
Finds the count of entries with specific card details that include 'distill', 'qwen2.5', '7b' but exclude certain base models, revealing valuable insights about the dataset's content distribution.
Filtered Distill Qwen 7B Models
Filters for specific card entries containing 'distill', 'qwen', and '7b', excluding certain strings and patterns, to identify relevant model configurations.
Filtered Qwen-7b Model Cards
The query performs a detailed filtering based on specific keywords and excludes certain entries, which could be useful for identifying a specific subset of cards but does not provide deeper insights or trends.
Filtered Qwen 7B Model Cards
The query filters for specific terms related to "distilled" or "distill", "qwen", and "7b" in the 'card' column but excludes certain base models, providing a limited set of entries for further inspection.
Qwen 7B Distilled Models
The query provides a basic filtering of records to find specific card names that include keywords related to distilled Qwen 7b models, excluding a particular base model, which gives limited insight but helps in focusing on relevant entries.
Qwen 7B Distilled Model Cards
The query filters data based on specific keywords in the modelId and card fields, providing limited insight primarily useful for locating specific entries rather than revealing broad patterns or trends.
Qwen 7B Distilled Models
Finds all entries containing the terms 'distilled', 'qwen', and '7b' in a case-insensitive manner, providing a filtered set of records but without deeper analysis.
Distilled Qwen 7B Models
The query filters for specific model IDs containing 'distilled', 'qwen', and '7b', providing a basic retrieval of relevant entries but without deeper analysis or insight.
Filtered Model Cards with Distill Qwen2.
Filters and retrieves records containing specific keywords in the card description while excluding certain phrases, providing a basic count of relevant entries.
Filtered Model Cards with Distill Qwen 7
The query filters specific variations of card descriptions containing 'distill', 'qwen', and '7b' while excluding a particular base model, providing limited but specific data retrieval.
Distill Qwen 7B Model Cards
The query filters and retrieves rows where the 'card' column contains specific keywords ('distill', 'qwen', and '7b'), providing a basic filter result that can help in identifying specific entries.