modelId
stringlengths 5
139
| author
stringlengths 2
42
| last_modified
timestamp[us, tz=UTC]date 2020-02-15 11:33:14
2025-09-12 00:41:42
| downloads
int64 0
223M
| likes
int64 0
11.7k
| library_name
stringclasses 555
values | tags
listlengths 1
4.05k
| pipeline_tag
stringclasses 55
values | createdAt
timestamp[us, tz=UTC]date 2022-03-02 23:29:04
2025-09-12 00:40:24
| card
stringlengths 11
1.01M
|
---|---|---|---|---|---|---|---|---|---|
nattkorat/trigger_id
|
nattkorat
| 2025-08-19T08:29:25Z | 16 | 0 |
transformers
|
[
"transformers",
"safetensors",
"xlm-roberta",
"token-classification",
"generated_from_trainer",
"base_model:FacebookAI/xlm-roberta-base",
"base_model:finetune:FacebookAI/xlm-roberta-base",
"license:mit",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
token-classification
| 2025-07-23T02:57:09Z |
---
library_name: transformers
license: mit
base_model: xlm-roberta-base
tags:
- generated_from_trainer
metrics:
- accuracy
- precision
- recall
- f1
model-index:
- name: trigger_id
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# trigger_id
This model is a fine-tuned version of [xlm-roberta-base](https://huggingface.co/xlm-roberta-base) on the None dataset.
It achieves the following results on the evaluation set:
- Loss: 0.0634
- Accuracy: 0.9780
- Precision: 0.7114
- Recall: 0.6376
- F1: 0.6725
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 32
- eval_batch_size: 32
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 5
### Training results
| Training Loss | Epoch | Step | Validation Loss | Accuracy | Precision | Recall | F1 |
|:-------------:|:-----:|:----:|:---------------:|:--------:|:---------:|:------:|:------:|
| No log | 1.0 | 38 | 0.1618 | 0.9513 | 0.0 | 0.0 | 0.0 |
| No log | 2.0 | 76 | 0.0873 | 0.9742 | 0.7385 | 0.5685 | 0.6424 |
| No log | 3.0 | 114 | 0.0693 | 0.9773 | 0.7357 | 0.5968 | 0.6590 |
| No log | 4.0 | 152 | 0.0665 | 0.9771 | 0.6768 | 0.6777 | 0.6773 |
| No log | 5.0 | 190 | 0.0634 | 0.9780 | 0.7114 | 0.6376 | 0.6725 |
### Framework versions
- Transformers 4.52.4
- Pytorch 2.7.1+cu126
- Datasets 4.0.0
- Tokenizers 0.21.1
|
aleebaster/blockassist-bc-sly_eager_boar_1755590593
|
aleebaster
| 2025-08-19T08:28:17Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"sly eager boar",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:28:10Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- sly eager boar
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Jansenhbar/bert_cased_dummy-model
|
Jansenhbar
| 2025-08-19T08:28:02Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"bert",
"fill-mask",
"arxiv:1910.09700",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
fill-mask
| 2025-08-19T08:27:46Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
hoan17/saving_LOe400s16_scratch_8
|
hoan17
| 2025-08-19T08:25:31Z | 0 | 0 |
diffusers
|
[
"diffusers",
"safetensors",
"trl",
"o2o",
"reinforcement-learning",
"text-to-image",
"stable-diffusion",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-08-19T08:25:02Z |
---
license: apache-2.0
tags:
- trl
- o2o
- diffusers
- reinforcement-learning
- text-to-image
- stable-diffusion
---
# TRL O2O Model
This is a diffusion model that has been fine-tuned with reinforcement learning to
guide the model outputs according to a value, function, or human feedback. The model can be used for image generation conditioned with text.
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755591883
|
0xaoyama
| 2025-08-19T08:25:17Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:25:06Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
sungkwan2/segformer-b0-scene-parse-150
|
sungkwan2
| 2025-08-19T08:24:07Z | 2 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"segformer",
"generated_from_trainer",
"base_model:nvidia/mit-b0",
"base_model:finetune:nvidia/mit-b0",
"license:other",
"endpoints_compatible",
"region:us"
] | null | 2025-04-23T12:00:05Z |
---
library_name: transformers
license: other
base_model: nvidia/mit-b0
tags:
- generated_from_trainer
model-index:
- name: segformer-b0-scene-parse-150
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# segformer-b0-scene-parse-150
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 4.1486
- Mean Iou: 0.0000
- Mean Accuracy: 0.0001
- Overall Accuracy: 0.0001
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 6e-05
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 2
### Training results
| Training Loss | Epoch | Step | Validation Loss | Mean Iou | Mean Accuracy | Overall Accuracy |
|:-------------:|:-----:|:----:|:---------------:|:--------:|:-------------:|:----------------:|
| 4.9721 | 0.025 | 1 | 5.0059 | 0.0007 | 0.0148 | 0.0063 |
| 4.9475 | 0.05 | 2 | 5.0027 | 0.0007 | 0.0140 | 0.0060 |
| 4.9457 | 0.075 | 3 | 4.9996 | 0.0008 | 0.0144 | 0.0063 |
| 4.9923 | 0.1 | 4 | 4.9959 | 0.0008 | 0.0142 | 0.0063 |
| 5.0016 | 0.125 | 5 | 4.9912 | 0.0009 | 0.0153 | 0.0069 |
| 4.9753 | 0.15 | 6 | 4.9876 | 0.0008 | 0.0149 | 0.0070 |
| 4.8799 | 0.175 | 7 | 4.9824 | 0.0006 | 0.0108 | 0.0051 |
| 4.9689 | 0.2 | 8 | 4.9767 | 0.0006 | 0.0095 | 0.0045 |
| 4.9046 | 0.225 | 9 | 4.9697 | 0.0006 | 0.0093 | 0.0044 |
| 4.8772 | 0.25 | 10 | 4.9629 | 0.0005 | 0.0074 | 0.0035 |
| 4.7839 | 0.275 | 11 | 4.9574 | 0.0005 | 0.0084 | 0.0038 |
| 4.9577 | 0.3 | 12 | 4.9500 | 0.0005 | 0.0074 | 0.0031 |
| 4.8491 | 0.325 | 13 | 4.9411 | 0.0004 | 0.0067 | 0.0026 |
| 4.8449 | 0.35 | 14 | 4.9340 | 0.0004 | 0.0070 | 0.0026 |
| 4.8899 | 0.375 | 15 | 4.9229 | 0.0003 | 0.0051 | 0.0020 |
| 4.7924 | 0.4 | 16 | 4.9163 | 0.0003 | 0.0050 | 0.0019 |
| 4.7651 | 0.425 | 17 | 4.9072 | 0.0003 | 0.0043 | 0.0016 |
| 4.7951 | 0.45 | 18 | 4.8953 | 0.0002 | 0.0035 | 0.0013 |
| 4.7355 | 0.475 | 19 | 4.8865 | 0.0002 | 0.0028 | 0.0010 |
| 4.7461 | 0.5 | 20 | 4.8723 | 0.0002 | 0.0026 | 0.0008 |
| 4.704 | 0.525 | 21 | 4.8606 | 0.0002 | 0.0022 | 0.0007 |
| 4.7775 | 0.55 | 22 | 4.8484 | 0.0001 | 0.0017 | 0.0006 |
| 4.7081 | 0.575 | 23 | 4.8331 | 0.0001 | 0.0013 | 0.0004 |
| 4.7681 | 0.6 | 24 | 4.8187 | 0.0001 | 0.0009 | 0.0003 |
| 4.7297 | 0.625 | 25 | 4.8037 | 0.0001 | 0.0008 | 0.0003 |
| 4.8181 | 0.65 | 26 | 4.7882 | 0.0001 | 0.0007 | 0.0002 |
| 4.833 | 0.675 | 27 | 4.7748 | 0.0001 | 0.0006 | 0.0002 |
| 4.7222 | 0.7 | 28 | 4.7575 | 0.0000 | 0.0004 | 0.0002 |
| 4.6457 | 0.725 | 29 | 4.7389 | 0.0000 | 0.0004 | 0.0002 |
| 4.7089 | 0.75 | 30 | 4.7236 | 0.0000 | 0.0005 | 0.0002 |
| 4.543 | 0.775 | 31 | 4.7079 | 0.0001 | 0.0006 | 0.0002 |
| 4.5529 | 0.8 | 32 | 4.6963 | 0.0001 | 0.0006 | 0.0003 |
| 4.7005 | 0.825 | 33 | 4.6759 | 0.0001 | 0.0006 | 0.0003 |
| 4.4735 | 0.85 | 34 | 4.6630 | 0.0001 | 0.0008 | 0.0004 |
| 4.6562 | 0.875 | 35 | 4.6468 | 0.0001 | 0.0009 | 0.0004 |
| 4.5902 | 0.9 | 36 | 4.6274 | 0.0001 | 0.0008 | 0.0004 |
| 4.4974 | 0.925 | 37 | 4.6125 | 0.0001 | 0.0008 | 0.0004 |
| 4.524 | 0.95 | 38 | 4.5967 | 0.0001 | 0.0011 | 0.0005 |
| 4.5527 | 0.975 | 39 | 4.5826 | 0.0001 | 0.0011 | 0.0005 |
| 4.5165 | 1.0 | 40 | 4.5627 | 0.0001 | 0.0010 | 0.0005 |
| 4.6337 | 1.025 | 41 | 4.5502 | 0.0001 | 0.0012 | 0.0006 |
| 4.4551 | 1.05 | 42 | 4.5425 | 0.0001 | 0.0012 | 0.0005 |
| 4.4697 | 1.075 | 43 | 4.5294 | 0.0001 | 0.0006 | 0.0003 |
| 4.4967 | 1.1 | 44 | 4.5065 | 0.0001 | 0.0007 | 0.0003 |
| 4.4839 | 1.125 | 45 | 4.4896 | 0.0000 | 0.0004 | 0.0002 |
| 4.4394 | 1.15 | 46 | 4.4699 | 0.0000 | 0.0003 | 0.0001 |
| 4.4557 | 1.175 | 47 | 4.4511 | 0.0000 | 0.0003 | 0.0001 |
| 4.2669 | 1.2 | 48 | 4.4475 | 0.0000 | 0.0003 | 0.0001 |
| 4.3143 | 1.225 | 49 | 4.4325 | 0.0000 | 0.0002 | 0.0001 |
| 4.4519 | 1.25 | 50 | 4.4195 | 0.0000 | 0.0002 | 0.0001 |
| 4.5376 | 1.275 | 51 | 4.4092 | 0.0000 | 0.0001 | 0.0001 |
| 4.2617 | 1.3 | 52 | 4.4058 | 0.0000 | 0.0001 | 0.0000 |
| 4.2813 | 1.325 | 53 | 4.3936 | 0.0000 | 0.0001 | 0.0000 |
| 4.5218 | 1.35 | 54 | 4.3867 | 0.0000 | 0.0002 | 0.0001 |
| 4.4805 | 1.375 | 55 | 4.3691 | 0.0000 | 0.0002 | 0.0001 |
| 4.184 | 1.4 | 56 | 4.3574 | 0.0000 | 0.0002 | 0.0001 |
| 4.2208 | 1.425 | 57 | 4.3606 | 0.0000 | 0.0001 | 0.0001 |
| 4.5288 | 1.45 | 58 | 4.3579 | 0.0000 | 0.0001 | 0.0001 |
| 4.3959 | 1.475 | 59 | 4.3421 | 0.0000 | 0.0001 | 0.0000 |
| 4.2578 | 1.5 | 60 | 4.3403 | 0.0000 | 0.0001 | 0.0000 |
| 4.3504 | 1.525 | 61 | 4.3307 | 0.0000 | 0.0001 | 0.0000 |
| 4.2364 | 1.55 | 62 | 4.3177 | 0.0000 | 0.0001 | 0.0000 |
| 4.3248 | 1.575 | 63 | 4.2924 | 0.0000 | 0.0000 | 0.0000 |
| 4.2771 | 1.6 | 64 | 4.2698 | 0.0000 | 0.0000 | 0.0000 |
| 4.2447 | 1.625 | 65 | 4.2533 | 0.0000 | 0.0000 | 0.0000 |
| 4.4481 | 1.65 | 66 | 4.2418 | 0.0000 | 0.0000 | 0.0000 |
| 4.1369 | 1.675 | 67 | 4.2374 | 0.0000 | 0.0000 | 0.0000 |
| 4.2266 | 1.7 | 68 | 4.2305 | 0.0000 | 0.0000 | 0.0000 |
| 4.5113 | 1.725 | 69 | 4.2225 | 0.0000 | 0.0000 | 0.0000 |
| 4.4737 | 1.75 | 70 | 4.2077 | 0.0000 | 0.0000 | 0.0000 |
| 4.4571 | 1.775 | 71 | 4.1960 | 0.0000 | 0.0001 | 0.0000 |
| 4.2179 | 1.8 | 72 | 4.1824 | 0.0000 | 0.0001 | 0.0000 |
| 4.5426 | 1.825 | 73 | 4.1654 | 0.0000 | 0.0002 | 0.0001 |
| 4.3632 | 1.85 | 74 | 4.1572 | 0.0000 | 0.0002 | 0.0001 |
| 4.2132 | 1.875 | 75 | 4.1628 | 0.0000 | 0.0002 | 0.0001 |
| 4.3442 | 1.9 | 76 | 4.1621 | 0.0000 | 0.0001 | 0.0000 |
| 4.4454 | 1.925 | 77 | 4.1647 | 0.0000 | 0.0001 | 0.0000 |
| 4.1564 | 1.95 | 78 | 4.1691 | 0.0000 | 0.0001 | 0.0000 |
| 4.5028 | 1.975 | 79 | 4.1513 | 0.0000 | 0.0002 | 0.0001 |
| 4.3814 | 2.0 | 80 | 4.1486 | 0.0000 | 0.0001 | 0.0001 |
### Framework versions
- Transformers 4.55.2
- Pytorch 2.6.0+cu124
- Datasets 4.0.0
- Tokenizers 0.21.4
|
michaelcpage345/blockassist-bc-miniature_deadly_anteater_1755590019
|
michaelcpage345
| 2025-08-19T08:22:01Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"miniature deadly anteater",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:21:58Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- miniature deadly anteater
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755590082
|
lisaozill03
| 2025-08-19T08:18:57Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rugged prickly alpaca",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:18:54Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rugged prickly alpaca
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
ChandrilBasu/kdadi
|
ChandrilBasu
| 2025-08-19T08:17:34Z | 0 | 0 |
diffusers
|
[
"diffusers",
"flux",
"text-to-image",
"lora",
"fal",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] |
text-to-image
| 2025-08-19T08:17:28Z |
---
tags:
- flux
- text-to-image
- lora
- diffusers
- fal
base_model: black-forest-labs/FLUX.1-dev
instance_prompt: kdadi
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
---
# kdadi
<Gallery />
## Model description
## Trigger words
You should use `kdadi` to trigger the image generation.
## Download model
Weights for this model are available in Safetensors format.
[Download](/ChandrilBasu/kdadi/tree/main) them in the Files & versions tab.
## Training at fal.ai
Training was done using [fal.ai/models/fal-ai/flux-lora-fast-training](https://fal.ai/models/fal-ai/flux-lora-fast-training).
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755591196
|
IvanJAjebu
| 2025-08-19T08:14:27Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:14:18Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755590885
|
IvanJAjebu
| 2025-08-19T08:09:22Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:09:13Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
SP4ND4N/Qwen2.5-0.5B-2025-08-19_12-15-49-fp8-merged
|
SP4ND4N
| 2025-08-19T08:06:42Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"text-generation-inference",
"unsloth",
"en",
"base_model:unsloth/Qwen2.5-0.5B",
"base_model:finetune:unsloth/Qwen2.5-0.5B",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:56:01Z |
---
base_model: unsloth/Qwen2.5-0.5B
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2
license: apache-2.0
language:
- en
---
# Uploaded finetuned model
- **Developed by:** SP4ND4N
- **License:** apache-2.0
- **Finetuned from model :** unsloth/Qwen2.5-0.5B
This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
KCS97/dog2
|
KCS97
| 2025-08-19T08:02:17Z | 0 | 0 |
diffusers
|
[
"diffusers",
"tensorboard",
"safetensors",
"text-to-image",
"dreambooth",
"diffusers-training",
"stable-diffusion",
"stable-diffusion-diffusers",
"base_model:stable-diffusion-v1-5/stable-diffusion-v1-5",
"base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5",
"license:creativeml-openrail-m",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-08-19T07:52:32Z |
---
base_model: stable-diffusion-v1-5/stable-diffusion-v1-5
library_name: diffusers
license: creativeml-openrail-m
inference: true
instance_prompt: a photo of sks dog
tags:
- text-to-image
- dreambooth
- diffusers-training
- stable-diffusion
- stable-diffusion-diffusers
---
<!-- This model card has been generated automatically according to the information the training script had access to. You
should probably proofread and complete it, then remove this comment. -->
# DreamBooth - KCS97/dog2
This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks dog using [DreamBooth](https://dreambooth.github.io/).
You can find some example images in the following.
DreamBooth for the text encoder was enabled: False.
## Intended uses & limitations
#### How to use
```python
# TODO: add an example code snippet for running this diffusion pipeline
```
#### Limitations and bias
[TODO: provide examples of latent issues and potential remediations]
## Training details
[TODO: describe the data used to train the model]
|
ihsanridzi/blockassist-bc-wiry_flexible_owl_1755588882
|
ihsanridzi
| 2025-08-19T08:02:17Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"wiry flexible owl",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T08:02:13Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- wiry flexible owl
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Andreyko22/blockassist-bc-fleecy_solitary_alligator_1755589493
|
Andreyko22
| 2025-08-19T07:59:11Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"fleecy solitary alligator",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:59:04Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- fleecy solitary alligator
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
rockst4r4/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-yawning_tiny_aardvark
|
rockst4r4
| 2025-08-19T07:59:05Z | 1 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"rl-swarm",
"genrl-swarm",
"grpo",
"gensyn",
"I am yawning_tiny_aardvark",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-15T20:28:40Z |
---
library_name: transformers
tags:
- rl-swarm
- genrl-swarm
- grpo
- gensyn
- I am yawning_tiny_aardvark
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755590162
|
IvanJAjebu
| 2025-08-19T07:57:12Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:57:04Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
maxidesantafe11/blockassist-bc-deft_monstrous_finch_1755588054
|
maxidesantafe11
| 2025-08-19T07:54:56Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"deft monstrous finch",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:54:53Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- deft monstrous finch
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
GradientResearch/Qwen3-32B-LoRA-ECHO-KK-GRPO
|
GradientResearch
| 2025-08-19T07:54:50Z | 0 | 0 | null |
[
"safetensors",
"qwen3",
"text-generation",
"conversational",
"arxiv:2508.05387",
"license:apache-2.0",
"region:us"
] |
text-generation
| 2025-08-18T12:33:37Z |
---
license: apache-2.0
pipeline_tag: text-generation
---
# Model Card for Qwen3-32B-LoRA-ECHO-KK-GRPO
<!-- Provide a quick summary of what the model is/does. -->
Based on Qwen3-32B, we applied the ECHO framework to perform LoRA fine-tuning on the KK dataset.
Ultimately, it achieved near-perfect scores on the 2–8 PPL test set, surpassing o4-mini, DeepSeek-R1, and o3-mini-high.
Tabel 3: Model performance on K&K logic puzzle task across different degrees of difficulty
| model | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
|----------------|---------------------------:|--------------------------:|--------------------------:|--------------------:|------------:|-------------:|-------------:|
| Qwen3-32B | 0.98 | 0.99 | 0.98 | 0.99 | 0.98 | 0.96 |0.95 |
| Deepseek-R1 | 1.00 | 0.97 | 0.95 | 0.93 | 0.91 | 0.93 |0.91 |
| o3-mini-high | 1.00 | 1.00 | 1.00 | 1.00 | 0.99 | 0.98 |0.98 |
| o4-mini | 1.00 | 1.00 | 0.96 | 0.94 | 0.97 | 0.93 |0.87 |
| Qwen3-32B-Echo(GRPO w/Lora) | 0.99 | 1.00 | 1.00 | 1.00 | 0.99 | 1.00 |0.99 |
# Quick start
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "GradientResearch/Qwen3-32B-LoRA-ECHO-KK-GRPO"# load the tokenizer and the model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
# prepare the model input
prompt = "K & K"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # Switches between thinking and non-thinking modes. Default is True.
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# conduct text completion
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
# parsing thinking contenttry:
# rindex finding 151668 (</think>)
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)
```
# Citation
If you find our work helpful, feel free to give us a cite.
```
@misc{xiao2025echodecouplinginferencetraining,
title={Echo: Decoupling Inference and Training for Large-Scale RL Alignment on Heterogeneous Swarms},
author={Jie Xiao and Changyuan Fan and Qingnan Ren and Alfred Long and Yuchen Zhang and Rymon Yu and Eric Yang and Lynn Ai and Shaoduo Gan},
year={2025},
eprint={2508.05387},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/2508.05387},
}
```
|
liukevin666/blockassist-bc-yawning_striped_cassowary_1755589937
|
liukevin666
| 2025-08-19T07:53:44Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"yawning striped cassowary",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:53:26Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- yawning striped cassowary
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
GradientResearch/Qwen2.5-7B-ECHO-MATH-GRPO
|
GradientResearch
| 2025-08-19T07:52:46Z | 0 | 0 | null |
[
"safetensors",
"qwen2",
"text-generation",
"conversational",
"arxiv:2508.05387",
"license:apache-2.0",
"region:us"
] |
text-generation
| 2025-08-18T12:29:51Z |
---
license: apache-2.0
pipeline_tag: text-generation
---
# Model Card for Qwen2.5-7B-ECHO-MATH-GRPO
Based on Qwen2.5-7B, we trained the model with the ECHO framework using GRPO on the Eurus-2-RL-Math dataset.
It outperformed the Qwen2.5-32B on all six test datasets, achieving a 12% improvement on average.
Tabel 2: Model performance on math reasoning tasks. For AIME and AMC, the results are avg. @32
| model | AIME24 | AIME25 | AMC | MATH-500 | OlympiadBench | Minerva | Avg. |
|----------------|---------------------------:|--------------------------:|--------------------------:|--------------------:|------------:|-------------:|-------------:|
| Qwen2.5-7B | 2.7 | 1.9 | 22.0 | 44.6 | 19.7 | 20.9 |18.6 |
| Qwen2.5-32B | 5.3 | 2.1 | 27.9 | 62.4 | 25.4 | 33.5 |26.1 |
| Qwen2.5-32B-ECHO(GRPO) | 13.1 | 6.9 | 45.6 | 75.4 | 37.0 | 50.7 |38.1 |
# Quick start
```python
from transformers import pipeline
question = "math"
generator = pipeline("text-generation", model="GradientResearch/Qwen2.5-7B-ECHO-MATH-GRPO", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
# Citation
If you find our work helpful, feel free to give us a cite.
```bibtex
@misc{xiao2025echodecouplinginferencetraining,
title={Echo: Decoupling Inference and Training for Large-Scale RL Alignment on Heterogeneous Swarms},
author={Jie Xiao and Changyuan Fan and Qingnan Ren and Alfred Long and Yuchen Zhang and Rymon Yu and Eric Yang and Lynn Ai and Shaoduo Gan},
year={2025},
eprint={2508.05387},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/2508.05387},
}
```
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755589910
|
0xaoyama
| 2025-08-19T07:52:23Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:52:12Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755589772
|
IvanJAjebu
| 2025-08-19T07:51:06Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:50:39Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Hooooooooooon/Llama-3.2-1B-1
|
Hooooooooooon
| 2025-08-19T07:49:43Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"8-bit",
"bitsandbytes",
"region:us"
] |
text-generation
| 2025-08-19T07:49:22Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
VoilaRaj/78_VzmMfc
|
VoilaRaj
| 2025-08-19T07:48:58Z | 0 | 0 | null |
[
"safetensors",
"any-to-any",
"omega",
"omegalabs",
"bittensor",
"agi",
"license:mit",
"region:us"
] |
any-to-any
| 2025-08-19T07:45:03Z |
---
license: mit
tags:
- any-to-any
- omega
- omegalabs
- bittensor
- agi
---
This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet.
Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
|
kjydb/lerobot_test_152
|
kjydb
| 2025-08-19T07:47:19Z | 0 | 0 |
lerobot
|
[
"lerobot",
"safetensors",
"smolvla",
"robotics",
"dataset:kjydb/lerobot_test_152",
"arxiv:2506.01844",
"base_model:lerobot/smolvla_base",
"base_model:finetune:lerobot/smolvla_base",
"license:apache-2.0",
"region:us"
] |
robotics
| 2025-08-19T07:46:50Z |
---
base_model: lerobot/smolvla_base
datasets: kjydb/lerobot_test_152
library_name: lerobot
license: apache-2.0
model_name: smolvla
pipeline_tag: robotics
tags:
- smolvla
- lerobot
- robotics
---
# Model Card for smolvla
<!-- Provide a quick summary of what the model is/does. -->
[SmolVLA](https://huggingface.co/papers/2506.01844) is a compact, efficient vision-language-action model that achieves competitive performance at reduced computational costs and can be deployed on consumer-grade hardware.
This policy has been trained and pushed to the Hub using [LeRobot](https://github.com/huggingface/lerobot).
See the full documentation at [LeRobot Docs](https://huggingface.co/docs/lerobot/index).
---
## How to Get Started with the Model
For a complete walkthrough, see the [training guide](https://huggingface.co/docs/lerobot/il_robots#train-a-policy).
Below is the short version on how to train and run inference/eval:
### Train from scratch
```bash
python -m lerobot.scripts.train \
--dataset.repo_id=${HF_USER}/<dataset> \
--policy.type=act \
--output_dir=outputs/train/<desired_policy_repo_id> \
--job_name=lerobot_training \
--policy.device=cuda \
--policy.repo_id=${HF_USER}/<desired_policy_repo_id>
--wandb.enable=true
```
*Writes checkpoints to `outputs/train/<desired_policy_repo_id>/checkpoints/`.*
### Evaluate the policy/run inference
```bash
python -m lerobot.record \
--robot.type=so100_follower \
--dataset.repo_id=<hf_user>/eval_<dataset> \
--policy.path=<hf_user>/<desired_policy_repo_id> \
--episodes=10
```
Prefix the dataset repo with **eval\_** and supply `--policy.path` pointing to a local or hub checkpoint.
---
## Model Details
* **License:** apache-2.0
|
donoway/BoolQ_Llama-3.2-1B-eszatdiq
|
donoway
| 2025-08-19T07:46:49Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:26:40Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: BoolQ_Llama-3.2-1B-eszatdiq
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# BoolQ_Llama-3.2-1B-eszatdiq
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 2.5571
- Model Preparation Time: 0.0056
- Mdl: 12063.3522
- Accumulated Loss: 8361.6786
- Correct Preds: 2256.0
- Total Preds: 3270.0
- Accuracy: 0.6899
- Correct Gen Preds: 2181.0
- Gen Accuracy: 0.6670
- Correct Gen Preds 9642: 1467.0
- Correct Preds 9642: 1519.0
- Total Labels 9642: 2026.0
- Accuracy 9642: 0.7498
- Gen Accuracy 9642: 0.7241
- Correct Gen Preds 2822: 706.0
- Correct Preds 2822: 737.0
- Total Labels 2822: 1231.0
- Accuracy 2822: 0.5987
- Gen Accuracy 2822: 0.5735
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 32
- eval_batch_size: 120
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 9642 | Correct Preds 9642 | Total Labels 9642 | Accuracy 9642 | Gen Accuracy 9642 | Correct Gen Preds 2822 | Correct Preds 2822 | Total Labels 2822 | Accuracy 2822 | Gen Accuracy 2822 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:----------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:|
| No log | 0 | 0 | 0.7080 | 0.0056 | 3339.8933 | 2315.0376 | 2032.0 | 3270.0 | 0.6214 | 2040.0 | 0.6239 | 2007.0 | 2008.0 | 2026.0 | 0.9911 | 0.9906 | 24.0 | 24.0 | 1231.0 | 0.0195 | 0.0195 |
| 0.8982 | 1.0 | 3 | 0.8052 | 0.0056 | 3798.5080 | 2632.9251 | 1559.0 | 3270.0 | 0.4768 | 1467.0 | 0.4486 | 337.0 | 372.0 | 2026.0 | 0.1836 | 0.1663 | 1121.0 | 1187.0 | 1231.0 | 0.9643 | 0.9106 |
| 0.3133 | 2.0 | 6 | 0.6938 | 0.0056 | 3273.0467 | 2268.7031 | 2128.0 | 3270.0 | 0.6508 | 1815.0 | 0.5550 | 1609.0 | 1865.0 | 2026.0 | 0.9205 | 0.7942 | 197.0 | 263.0 | 1231.0 | 0.2136 | 0.1600 |
| 0.0233 | 3.0 | 9 | 0.7795 | 0.0056 | 3677.5836 | 2549.1067 | 2216.0 | 3270.0 | 0.6777 | 2161.0 | 0.6609 | 1362.0 | 1401.0 | 2026.0 | 0.6915 | 0.6723 | 790.0 | 815.0 | 1231.0 | 0.6621 | 0.6418 |
| 0.0001 | 4.0 | 12 | 2.6272 | 0.0056 | 12394.1502 | 8590.9703 | 2192.0 | 3270.0 | 0.6703 | 2195.0 | 0.6713 | 1973.0 | 1977.0 | 2026.0 | 0.9758 | 0.9738 | 214.0 | 215.0 | 1231.0 | 0.1747 | 0.1738 |
| 0.0025 | 5.0 | 15 | 2.5778 | 0.0056 | 12161.0922 | 8429.4268 | 2237.0 | 3270.0 | 0.6841 | 2227.0 | 0.6810 | 1771.0 | 1782.0 | 2026.0 | 0.8796 | 0.8741 | 448.0 | 455.0 | 1231.0 | 0.3696 | 0.3639 |
| 0.0 | 6.0 | 18 | 2.5571 | 0.0056 | 12063.3522 | 8361.6786 | 2256.0 | 3270.0 | 0.6899 | 2181.0 | 0.6670 | 1467.0 | 1519.0 | 2026.0 | 0.7498 | 0.7241 | 706.0 | 737.0 | 1231.0 | 0.5987 | 0.5735 |
| 0.0 | 7.0 | 21 | 2.6065 | 0.0056 | 12296.3865 | 8523.2057 | 2192.0 | 3270.0 | 0.6703 | 1996.0 | 0.6104 | 1273.0 | 1402.0 | 2026.0 | 0.6920 | 0.6283 | 715.0 | 790.0 | 1231.0 | 0.6418 | 0.5808 |
| 0.0001 | 8.0 | 24 | 2.6148 | 0.0056 | 12335.8294 | 8550.5454 | 2175.0 | 3270.0 | 0.6651 | 1910.0 | 0.5841 | 1210.0 | 1395.0 | 2026.0 | 0.6885 | 0.5972 | 692.0 | 780.0 | 1231.0 | 0.6336 | 0.5621 |
| 0.0 | 9.0 | 27 | 2.6483 | 0.0056 | 12493.8025 | 8660.0440 | 2170.0 | 3270.0 | 0.6636 | 1920.0 | 0.5872 | 1220.0 | 1396.0 | 2026.0 | 0.6890 | 0.6022 | 691.0 | 774.0 | 1231.0 | 0.6288 | 0.5613 |
| 0.0001 | 10.0 | 30 | 2.6828 | 0.0056 | 12656.5201 | 8772.8312 | 2177.0 | 3270.0 | 0.6657 | 1963.0 | 0.6003 | 1255.0 | 1400.0 | 2026.0 | 0.6910 | 0.6194 | 700.0 | 777.0 | 1231.0 | 0.6312 | 0.5686 |
| 0.0001 | 11.0 | 33 | 2.7214 | 0.0056 | 12838.5669 | 8899.0164 | 2171.0 | 3270.0 | 0.6639 | 2013.0 | 0.6156 | 1279.0 | 1393.0 | 2026.0 | 0.6876 | 0.6313 | 725.0 | 778.0 | 1231.0 | 0.6320 | 0.5890 |
| 0.0 | 12.0 | 36 | 2.7415 | 0.0056 | 12933.2785 | 8964.6655 | 2169.0 | 3270.0 | 0.6633 | 2035.0 | 0.6223 | 1301.0 | 1393.0 | 2026.0 | 0.6876 | 0.6422 | 726.0 | 776.0 | 1231.0 | 0.6304 | 0.5898 |
| 0.0 | 13.0 | 39 | 2.7593 | 0.0056 | 13017.3006 | 9022.9052 | 2172.0 | 3270.0 | 0.6642 | 2056.0 | 0.6287 | 1313.0 | 1395.0 | 2026.0 | 0.6885 | 0.6481 | 734.0 | 777.0 | 1231.0 | 0.6312 | 0.5963 |
| 0.0 | 14.0 | 42 | 2.7708 | 0.0056 | 13071.4073 | 9060.4091 | 2167.0 | 3270.0 | 0.6627 | 2066.0 | 0.6318 | 1322.0 | 1393.0 | 2026.0 | 0.6876 | 0.6525 | 736.0 | 774.0 | 1231.0 | 0.6288 | 0.5979 |
| 0.0 | 15.0 | 45 | 2.7767 | 0.0056 | 13099.2616 | 9079.7162 | 2168.0 | 3270.0 | 0.6630 | 2068.0 | 0.6324 | 1320.0 | 1392.0 | 2026.0 | 0.6871 | 0.6515 | 740.0 | 776.0 | 1231.0 | 0.6304 | 0.6011 |
| 0.0 | 16.0 | 48 | 2.7824 | 0.0056 | 13126.3414 | 9098.4865 | 2169.0 | 3270.0 | 0.6633 | 2077.0 | 0.6352 | 1325.0 | 1391.0 | 2026.0 | 0.6866 | 0.6540 | 743.0 | 778.0 | 1231.0 | 0.6320 | 0.6036 |
| 0.0 | 17.0 | 51 | 2.7841 | 0.0056 | 13134.4015 | 9104.0734 | 2165.0 | 3270.0 | 0.6621 | 2078.0 | 0.6355 | 1328.0 | 1392.0 | 2026.0 | 0.6871 | 0.6555 | 742.0 | 773.0 | 1231.0 | 0.6279 | 0.6028 |
| 0.0 | 18.0 | 54 | 2.7872 | 0.0056 | 13148.8380 | 9114.0800 | 2171.0 | 3270.0 | 0.6639 | 2082.0 | 0.6367 | 1331.0 | 1397.0 | 2026.0 | 0.6895 | 0.6570 | 742.0 | 774.0 | 1231.0 | 0.6288 | 0.6028 |
| 0.0 | 19.0 | 57 | 2.7901 | 0.0056 | 13162.4860 | 9123.5401 | 2171.0 | 3270.0 | 0.6639 | 2081.0 | 0.6364 | 1327.0 | 1393.0 | 2026.0 | 0.6876 | 0.6550 | 745.0 | 778.0 | 1231.0 | 0.6320 | 0.6052 |
| 0.0 | 20.0 | 60 | 2.7935 | 0.0056 | 13178.7743 | 9134.8302 | 2172.0 | 3270.0 | 0.6642 | 2083.0 | 0.6370 | 1330.0 | 1398.0 | 2026.0 | 0.6900 | 0.6565 | 745.0 | 774.0 | 1231.0 | 0.6288 | 0.6052 |
| 0.0 | 21.0 | 63 | 2.7929 | 0.0056 | 13175.9740 | 9132.8892 | 2167.0 | 3270.0 | 0.6627 | 2080.0 | 0.6361 | 1328.0 | 1393.0 | 2026.0 | 0.6876 | 0.6555 | 743.0 | 774.0 | 1231.0 | 0.6288 | 0.6036 |
| 0.0 | 22.0 | 66 | 2.7951 | 0.0056 | 13186.0428 | 9139.8684 | 2175.0 | 3270.0 | 0.6651 | 2087.0 | 0.6382 | 1331.0 | 1397.0 | 2026.0 | 0.6895 | 0.6570 | 748.0 | 778.0 | 1231.0 | 0.6320 | 0.6076 |
| 0.0 | 23.0 | 69 | 2.7974 | 0.0056 | 13196.9785 | 9147.4485 | 2171.0 | 3270.0 | 0.6639 | 2089.0 | 0.6388 | 1330.0 | 1394.0 | 2026.0 | 0.6881 | 0.6565 | 751.0 | 777.0 | 1231.0 | 0.6312 | 0.6101 |
| 0.0 | 24.0 | 72 | 2.7988 | 0.0056 | 13203.5576 | 9152.0087 | 2172.0 | 3270.0 | 0.6642 | 2089.0 | 0.6388 | 1333.0 | 1395.0 | 2026.0 | 0.6885 | 0.6579 | 748.0 | 777.0 | 1231.0 | 0.6312 | 0.6076 |
| 0.0 | 25.0 | 75 | 2.8010 | 0.0056 | 13214.0329 | 9159.2696 | 2172.0 | 3270.0 | 0.6642 | 2093.0 | 0.6401 | 1335.0 | 1396.0 | 2026.0 | 0.6890 | 0.6589 | 749.0 | 776.0 | 1231.0 | 0.6304 | 0.6084 |
| 0.0 | 26.0 | 78 | 2.8012 | 0.0056 | 13214.8892 | 9159.8632 | 2174.0 | 3270.0 | 0.6648 | 2088.0 | 0.6385 | 1332.0 | 1397.0 | 2026.0 | 0.6895 | 0.6575 | 748.0 | 777.0 | 1231.0 | 0.6312 | 0.6076 |
| 0.0 | 27.0 | 81 | 2.8035 | 0.0056 | 13225.9128 | 9167.5042 | 2172.0 | 3270.0 | 0.6642 | 2092.0 | 0.6398 | 1333.0 | 1394.0 | 2026.0 | 0.6881 | 0.6579 | 751.0 | 778.0 | 1231.0 | 0.6320 | 0.6101 |
| 0.0 | 28.0 | 84 | 2.8045 | 0.0056 | 13230.6764 | 9170.8061 | 2172.0 | 3270.0 | 0.6642 | 2095.0 | 0.6407 | 1337.0 | 1395.0 | 2026.0 | 0.6885 | 0.6599 | 750.0 | 777.0 | 1231.0 | 0.6312 | 0.6093 |
| 0.0 | 29.0 | 87 | 2.8054 | 0.0056 | 13234.8323 | 9173.6867 | 2171.0 | 3270.0 | 0.6639 | 2090.0 | 0.6391 | 1333.0 | 1396.0 | 2026.0 | 0.6890 | 0.6579 | 749.0 | 775.0 | 1231.0 | 0.6296 | 0.6084 |
| 0.0 | 30.0 | 90 | 2.8060 | 0.0056 | 13237.7898 | 9175.7367 | 2175.0 | 3270.0 | 0.6651 | 2094.0 | 0.6404 | 1335.0 | 1396.0 | 2026.0 | 0.6890 | 0.6589 | 751.0 | 779.0 | 1231.0 | 0.6328 | 0.6101 |
| 0.0 | 31.0 | 93 | 2.8078 | 0.0056 | 13246.1557 | 9181.5355 | 2168.0 | 3270.0 | 0.6630 | 2091.0 | 0.6394 | 1335.0 | 1393.0 | 2026.0 | 0.6876 | 0.6589 | 747.0 | 775.0 | 1231.0 | 0.6296 | 0.6068 |
| 0.0 | 32.0 | 96 | 2.8082 | 0.0056 | 13247.9959 | 9182.8110 | 2169.0 | 3270.0 | 0.6633 | 2095.0 | 0.6407 | 1337.0 | 1393.0 | 2026.0 | 0.6876 | 0.6599 | 749.0 | 776.0 | 1231.0 | 0.6304 | 0.6084 |
| 0.0 | 33.0 | 99 | 2.8077 | 0.0056 | 13245.4286 | 9181.0315 | 2173.0 | 3270.0 | 0.6645 | 2100.0 | 0.6422 | 1338.0 | 1396.0 | 2026.0 | 0.6890 | 0.6604 | 753.0 | 777.0 | 1231.0 | 0.6312 | 0.6117 |
| 0.0 | 34.0 | 102 | 2.8115 | 0.0056 | 13263.6309 | 9193.6484 | 2169.0 | 3270.0 | 0.6633 | 2091.0 | 0.6394 | 1333.0 | 1394.0 | 2026.0 | 0.6881 | 0.6579 | 749.0 | 775.0 | 1231.0 | 0.6296 | 0.6084 |
| 0.0 | 35.0 | 105 | 2.8099 | 0.0056 | 13255.9181 | 9188.3022 | 2174.0 | 3270.0 | 0.6648 | 2095.0 | 0.6407 | 1339.0 | 1397.0 | 2026.0 | 0.6895 | 0.6609 | 748.0 | 777.0 | 1231.0 | 0.6312 | 0.6076 |
| 0.0 | 36.0 | 108 | 2.8103 | 0.0056 | 13258.0305 | 9189.7664 | 2173.0 | 3270.0 | 0.6645 | 2098.0 | 0.6416 | 1339.0 | 1397.0 | 2026.0 | 0.6895 | 0.6609 | 750.0 | 776.0 | 1231.0 | 0.6304 | 0.6093 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755588000
|
lisaozill03
| 2025-08-19T07:46:06Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"rugged prickly alpaca",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:46:02Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- rugged prickly alpaca
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755588452
|
Sayemahsjn
| 2025-08-19T07:45:27Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"playful feline octopus",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:45:23Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- playful feline octopus
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755589460
|
0xaoyama
| 2025-08-19T07:44:54Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:44:43Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
BRlkl/BingoGuard-llama-1B-pt-3
|
BRlkl
| 2025-08-19T07:42:32Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"text-generation-inference",
"unsloth",
"conversational",
"en",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:40:48Z |
---
base_model: unsloth/llama-3.2-1b-instruct-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- llama
license: apache-2.0
language:
- en
---
# Uploaded finetuned model
- **Developed by:** BRlkl
- **License:** apache-2.0
- **Finetuned from model :** unsloth/llama-3.2-1b-instruct-unsloth-bnb-4bit
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
g-assismoraes/Qwen3-4B-Base-hatebr-ep30
|
g-assismoraes
| 2025-08-19T07:42:21Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"conversational",
"base_model:Qwen/Qwen3-4B-Base",
"base_model:finetune:Qwen/Qwen3-4B-Base",
"license:apache-2.0",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T02:53:46Z |
---
library_name: transformers
license: apache-2.0
base_model: Qwen/Qwen3-4B-Base
tags:
- generated_from_trainer
model-index:
- name: Qwen3-4B-Base-hatebr-ep30
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# Qwen3-4B-Base-hatebr-ep30
This model is a fine-tuned version of [Qwen/Qwen3-4B-Base](https://huggingface.co/Qwen/Qwen3-4B-Base) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.9718
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 30
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:-----:|:-----:|:---------------:|
| 1.0747 | 1.0 | 1120 | 1.0066 |
| 0.8638 | 2.0 | 2240 | 1.0155 |
| 0.6535 | 3.0 | 3360 | 1.0998 |
| 0.4773 | 4.0 | 4480 | 1.2130 |
| 0.3591 | 5.0 | 5600 | 1.3275 |
| 0.2638 | 6.0 | 6720 | 1.4576 |
| 0.2032 | 7.0 | 7840 | 1.5488 |
| 0.1826 | 8.0 | 8960 | 1.6453 |
| 0.1748 | 9.0 | 10080 | 1.6863 |
| 0.1505 | 10.0 | 11200 | 1.7423 |
| 0.1568 | 11.0 | 12320 | 1.7965 |
| 0.1506 | 12.0 | 13440 | 1.8098 |
| 0.1523 | 13.0 | 14560 | 1.8553 |
| 0.1487 | 14.0 | 15680 | 1.8605 |
| 0.1426 | 15.0 | 16800 | 1.8745 |
| 0.1439 | 16.0 | 17920 | 1.8776 |
| 0.1426 | 17.0 | 19040 | 1.8878 |
| 0.1418 | 18.0 | 20160 | 1.8955 |
| 0.1456 | 19.0 | 21280 | 1.9128 |
| 0.1387 | 20.0 | 22400 | 1.9380 |
| 0.138 | 21.0 | 23520 | 1.9251 |
| 0.1354 | 22.0 | 24640 | 1.9360 |
| 0.1352 | 23.0 | 25760 | 1.9448 |
| 0.1395 | 24.0 | 26880 | 1.9579 |
| 0.1337 | 25.0 | 28000 | 1.9650 |
| 0.1375 | 26.0 | 29120 | 1.9689 |
| 0.1293 | 27.0 | 30240 | 1.9707 |
| 0.1338 | 28.0 | 31360 | 1.9728 |
| 0.1299 | 29.0 | 32480 | 1.9713 |
| 0.1286 | 30.0 | 33600 | 1.9718 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.2.0
- Tokenizers 0.21.0
|
vorkna/gemma-3N-finetune
|
vorkna
| 2025-08-19T07:41:38Z | 10 | 0 |
transformers
|
[
"transformers",
"safetensors",
"gemma3n",
"image-text-to-text",
"text-generation-inference",
"unsloth",
"conversational",
"en",
"th",
"dataset:scb10x/thai_exam",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] |
image-text-to-text
| 2025-08-13T02:46:47Z |
---
base_model: unsloth/gemma-3n-e4b-it-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- gemma3n
license: apache-2.0
language:
- en
- th
datasets:
- scb10x/thai_exam
---
# Uploaded finetuned model
- **Developed by:** vorkna
- **License:** apache-2.0
- **Finetuned from model :** unsloth/gemma-3n-e4b-it-unsloth-bnb-4bit
This model was trained on scb10x/thai_exam on purpose of getting better score on Thai LLM Leaderboard in Thai Exam category.
This gemma3n model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
VoilaRaj/78_EZ2IAQ
|
VoilaRaj
| 2025-08-19T07:40:51Z | 0 | 0 | null |
[
"safetensors",
"any-to-any",
"omega",
"omegalabs",
"bittensor",
"agi",
"license:mit",
"region:us"
] |
any-to-any
| 2025-08-19T07:36:54Z |
---
license: mit
tags:
- any-to-any
- omega
- omegalabs
- bittensor
- agi
---
This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet.
Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
|
CosminMihai02/llama3.1_ollama_v4
|
CosminMihai02
| 2025-08-19T07:40:35Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"llama",
"text-generation-inference",
"unsloth",
"en",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-08-19T07:39:48Z |
---
base_model: unsloth/meta-llama-3.1-8b-instruct-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- gguf
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** CosminMihai02
- **License:** apache-2.0
- **Finetuned from model :** unsloth/meta-llama-3.1-8b-instruct-unsloth-bnb-4bit
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755589087
|
IvanJAjebu
| 2025-08-19T07:39:31Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:39:09Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Ferdi3425/blockassist-bc-amphibious_deadly_otter_1755588973
|
Ferdi3425
| 2025-08-19T07:37:30Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"amphibious deadly otter",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:37:01Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- amphibious deadly otter
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
jinaai/jina-embeddings-v4-vllm-text-matching
|
jinaai
| 2025-08-19T07:36:27Z | 159 | 5 |
transformers
|
[
"transformers",
"safetensors",
"qwen2_5_vl",
"image-to-text",
"vidore",
"colpali",
"multimodal-embedding",
"multilingual-embedding",
"Text-to-Visual Document (T→VD) retrieval",
"feature-extraction",
"sentence-similarity",
"mteb",
"visual-document-retrieval",
"multilingual",
"arxiv:2506.18902",
"text-generation-inference",
"endpoints_compatible",
"region:eu"
] |
visual-document-retrieval
| 2025-07-01T09:45:47Z |
---
tags:
- vidore
- colpali
- multimodal-embedding
- multilingual-embedding
- Text-to-Visual Document (T→VD) retrieval
- feature-extraction
- sentence-similarity
- mteb
language:
- multilingual
library_name: transformers
pipeline_tag: visual-document-retrieval
---
<br><br>
<p align="center">
<img src="https://huggingface.co/datasets/jinaai/documentation-images/resolve/main/logo.webp" alt="Jina AI: Your Search Foundation, Supercharged!" width="150px">
</p>
<p align="center">
<b>The embedding model trained by <a href="https://jina.ai/"><b>Jina AI</b></a>.</b>
</p>
# Jina Embeddings v4: Universal Embeddings for Multimodal Multilingual Retrieval
[Original Model](https://huggingface.co/jinaai/jina-embeddings-v4) | [Blog](https://jina.ai/news/jina-embeddings-v4-universal-embeddings-for-multimodal-multilingual-retrieval) | [Technical Report](https://arxiv.org/abs/2506.18902) | [API](https://jina.ai/embeddings)
## Model Overview
This repository hosts a vLLM-compatible version of [`jina-embeddings-v4`](https://huggingface.co/jinaai/jina-embeddings-v4) with the **text-matching** adapter merged into the base `Qwen2.5-VL` weights. This architecture modification enables native compatibility with vLLM without requiring custom adapter-handling code.
## Usage
```python
import torch
from PIL import Image
from vllm import LLM
from vllm.config import PoolerConfig
from vllm.inputs.data import TextPrompt
# Initialize model
model = LLM(
model="jinaai/jina-embeddings-v4-vllm-text-matching",
task="embed",
override_pooler_config=PoolerConfig(pooling_type="ALL", normalize=False),
dtype="float16",
)
# Create text prompts
text1 = "Ein wunderschöner Sonnenuntergang am Strand"
text1_prompt = TextPrompt(
prompt=f"Query: {text1}"
)
text2 = "浜辺に沈む美しい夕日"
text2_prompt = TextPrompt(
prompt=f"Query: {text2}"
)
# Create image prompt
image = Image.open("<path_to_image>")
image_prompt = TextPrompt(
prompt="<|im_start|>user\n<|vision_start|><|image_pad|><|vision_end|>Describe the image.<|im_end|>\n",
multi_modal_data={"image": image},
)
# Encode all prompts
prompts = [text1_prompt, text2_prompt, image_prompt]
outputs = model.encode(prompts)
def get_embeddings(outputs):
VISION_START_TOKEN_ID, VISION_END_TOKEN_ID = 151652, 151653
embeddings = []
for output in outputs:
if VISION_START_TOKEN_ID in output.prompt_token_ids:
# Gather only vision tokens
img_start_pos = torch.where(
torch.tensor(output.prompt_token_ids) == VISION_START_TOKEN_ID
)[0][0]
img_end_pos = torch.where(
torch.tensor(output.prompt_token_ids) == VISION_END_TOKEN_ID
)[0][0]
embeddings_tensor = output.outputs.data.detach().clone()[
img_start_pos : img_end_pos + 1
]
else:
# Use all tokens for text-only prompts
embeddings_tensor = output.outputs.data.detach().clone()
# Pool and normalize embeddings
pooled_output = (
embeddings_tensor.sum(dim=0, dtype=torch.float32)
/ embeddings_tensor.shape[0]
)
embeddings.append(torch.nn.functional.normalize(pooled_output, dim=-1))
return embeddings
embeddings = get_embeddings(outputs)
```
|
smirki/UIGEN-X-4B-STG-Modal-0-5
|
smirki
| 2025-08-19T07:35:05Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"text-generation-inference",
"unsloth",
"conversational",
"en",
"base_model:unsloth/Qwen3-4B-Thinking-2507",
"base_model:finetune:unsloth/Qwen3-4B-Thinking-2507",
"license:apache-2.0",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-18T23:39:41Z |
---
base_model: unsloth/Qwen3-4B-Thinking-2507
tags:
- text-generation-inference
- transformers
- unsloth
- qwen3
license: apache-2.0
language:
- en
---
# Uploaded finetuned model
- **Developed by:** smirki
- **License:** apache-2.0
- **Finetuned from model :** unsloth/Qwen3-4B-Thinking-2507
This qwen3 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
donoway/ARC-Challenge_Llama-3.2-1B-jeegnirm
|
donoway
| 2025-08-19T07:34:27Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:24:08Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: ARC-Challenge_Llama-3.2-1B-jeegnirm
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# ARC-Challenge_Llama-3.2-1B-jeegnirm
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 4.1740
- Model Preparation Time: 0.0056
- Mdl: 1800.5119
- Accumulated Loss: 1248.0197
- Correct Preds: 73.0
- Total Preds: 299.0
- Accuracy: 0.2441
- Correct Gen Preds: 73.0
- Gen Accuracy: 0.2441
- Correct Gen Preds 32: 0.0
- Correct Preds 32: 0.0
- Total Labels 32: 64.0
- Accuracy 32: 0.0
- Gen Accuracy 32: 0.0
- Correct Gen Preds 33: 73.0
- Correct Preds 33: 73.0
- Total Labels 33: 73.0
- Accuracy 33: 1.0
- Gen Accuracy 33: 1.0
- Correct Gen Preds 34: 0.0
- Correct Preds 34: 0.0
- Total Labels 34: 78.0
- Accuracy 34: 0.0
- Gen Accuracy 34: 0.0
- Correct Gen Preds 35: 0.0
- Correct Preds 35: 0.0
- Total Labels 35: 83.0
- Accuracy 35: 0.0
- Gen Accuracy 35: 0.0
- Correct Gen Preds 36: 0.0
- Correct Preds 36: 0.0
- Total Labels 36: 1.0
- Accuracy 36: 0.0
- Gen Accuracy 36: 0.0
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 112
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|
| No log | 0 | 0 | 1.6389 | 0.0056 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 1.6112 | 1.0 | 1 | 1.6389 | 0.0056 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 1.6112 | 2.0 | 2 | 2.6577 | 0.0056 | 1146.4553 | 794.6622 | 67.0 | 299.0 | 0.2241 | 5.0 | 0.0167 | 2.0 | 28.0 | 64.0 | 0.4375 | 0.0312 | 3.0 | 38.0 | 73.0 | 0.5205 | 0.0411 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 1.0 | 83.0 | 0.0120 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.6501 | 3.0 | 3 | 4.1740 | 0.0056 | 1800.5119 | 1248.0197 | 73.0 | 299.0 | 0.2441 | 73.0 | 0.2441 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 73.0 | 73.0 | 73.0 | 1.0 | 1.0 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.8752 | 4.0 | 4 | 3.5170 | 0.0056 | 1517.1209 | 1051.5880 | 72.0 | 299.0 | 0.2408 | 66.0 | 0.2207 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 65.0 | 71.0 | 73.0 | 0.9726 | 0.8904 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0108 | 5.0 | 5 | 5.5078 | 0.0056 | 2375.8687 | 1646.8267 | 73.0 | 299.0 | 0.2441 | 67.0 | 0.2241 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 66.0 | 72.0 | 73.0 | 0.9863 | 0.9041 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0004 | 6.0 | 6 | 6.7942 | 0.0056 | 2930.8057 | 2031.4797 | 73.0 | 299.0 | 0.2441 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 73.0 | 73.0 | 1.0 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0001 | 7.0 | 7 | 7.4741 | 0.0056 | 3224.0644 | 2234.7512 | 73.0 | 299.0 | 0.2441 | 70.0 | 0.2341 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 70.0 | 73.0 | 73.0 | 1.0 | 0.9589 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 8.0 | 8 | 7.9209 | 0.0056 | 3416.8166 | 2368.3568 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 9.0 | 9 | 8.2159 | 0.0056 | 3544.0580 | 2456.5538 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 10.0 | 10 | 8.4230 | 0.0056 | 3633.3945 | 2518.4772 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 11.0 | 11 | 8.5792 | 0.0056 | 3700.7751 | 2565.1818 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 12.0 | 12 | 8.6998 | 0.0056 | 3752.7854 | 2601.2326 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 13.0 | 13 | 8.7996 | 0.0056 | 3795.8541 | 2631.0856 | 72.0 | 299.0 | 0.2408 | 68.0 | 0.2274 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 14.0 | 14 | 8.8839 | 0.0056 | 3832.1953 | 2656.2754 | 73.0 | 299.0 | 0.2441 | 69.0 | 0.2308 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 15.0 | 15 | 8.9564 | 0.0056 | 3863.5004 | 2677.9744 | 72.0 | 299.0 | 0.2408 | 68.0 | 0.2274 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 16.0 | 16 | 9.0167 | 0.0056 | 3889.4998 | 2695.9958 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 17.0 | 17 | 9.0633 | 0.0056 | 3909.6136 | 2709.9376 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 18.0 | 18 | 9.1024 | 0.0056 | 3926.4705 | 2721.6219 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 19.0 | 19 | 9.1340 | 0.0056 | 3940.0800 | 2731.0554 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 20.0 | 20 | 9.1662 | 0.0056 | 3953.9683 | 2740.6819 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 21.0 | 21 | 9.1797 | 0.0056 | 3959.8057 | 2744.7281 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 22.0 | 22 | 9.1905 | 0.0056 | 3964.4881 | 2747.9738 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 23.0 | 23 | 9.2127 | 0.0056 | 3974.0531 | 2754.6037 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 24.0 | 24 | 9.2275 | 0.0056 | 3980.4255 | 2759.0207 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 25.0 | 25 | 9.2345 | 0.0056 | 3983.4380 | 2761.1088 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 26.0 | 26 | 9.2472 | 0.0056 | 3988.9396 | 2764.9222 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 27.0 | 27 | 9.2510 | 0.0056 | 3990.5717 | 2766.0535 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 28.0 | 28 | 9.2577 | 0.0056 | 3993.4571 | 2768.0535 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 29.0 | 29 | 9.2680 | 0.0056 | 3997.9100 | 2771.1400 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 30.0 | 30 | 9.2658 | 0.0056 | 3996.9598 | 2770.4814 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 31.0 | 31 | 9.2687 | 0.0056 | 3998.1872 | 2771.3322 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 32.0 | 32 | 9.2685 | 0.0056 | 3998.0945 | 2771.2679 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 33.0 | 33 | 9.2818 | 0.0056 | 4003.8405 | 2775.2507 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
smirki/UIGEN-X-4B-STG-Modal-0-5-lora
|
smirki
| 2025-08-19T07:33:19Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"unsloth",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T07:33:16Z |
---
library_name: transformers
tags:
- unsloth
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
lqpl/blockassist-bc-hairy_insectivorous_antelope_1755588496
|
lqpl
| 2025-08-19T07:32:28Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"hairy insectivorous antelope",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:29:02Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- hairy insectivorous antelope
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
KCS97/teapot
|
KCS97
| 2025-08-19T07:29:56Z | 0 | 0 |
diffusers
|
[
"diffusers",
"tensorboard",
"safetensors",
"text-to-image",
"dreambooth",
"diffusers-training",
"stable-diffusion",
"stable-diffusion-diffusers",
"base_model:stable-diffusion-v1-5/stable-diffusion-v1-5",
"base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5",
"license:creativeml-openrail-m",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-08-19T07:17:14Z |
---
base_model: stable-diffusion-v1-5/stable-diffusion-v1-5
library_name: diffusers
license: creativeml-openrail-m
inference: true
instance_prompt: a photo of sks teapot
tags:
- text-to-image
- dreambooth
- diffusers-training
- stable-diffusion
- stable-diffusion-diffusers
---
<!-- This model card has been generated automatically according to the information the training script had access to. You
should probably proofread and complete it, then remove this comment. -->
# DreamBooth - KCS97/teapot
This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks teapot using [DreamBooth](https://dreambooth.github.io/).
You can find some example images in the following.
DreamBooth for the text encoder was enabled: False.
## Intended uses & limitations
#### How to use
```python
# TODO: add an example code snippet for running this diffusion pipeline
```
#### Limitations and bias
[TODO: provide examples of latent issues and potential remediations]
## Training details
[TODO: describe the data used to train the model]
|
jinaai/jina-embeddings-v4
|
jinaai
| 2025-08-19T07:29:43Z | 105,668 | 316 |
transformers
|
[
"transformers",
"safetensors",
"feature-extraction",
"vidore",
"colpali",
"multimodal-embedding",
"multilingual-embedding",
"Text-to-Visual Document (T→VD) retrieval",
"sentence-similarity",
"mteb",
"sentence-transformers",
"visual-document-retrieval",
"custom_code",
"multilingual",
"arxiv:2506.18902",
"region:eu"
] |
visual-document-retrieval
| 2025-05-07T12:19:26Z |
---
tags:
- vidore
- colpali
- multimodal-embedding
- multilingual-embedding
- Text-to-Visual Document (T→VD) retrieval
- feature-extraction
- sentence-similarity
- mteb
- sentence-transformers
language:
- multilingual
inference: false
library_name: transformers
pipeline_tag: visual-document-retrieval
---
<br><br>
<p align="center">
<img src="https://huggingface.co/datasets/jinaai/documentation-images/resolve/main/logo.webp" alt="Jina AI: Your Search Foundation, Supercharged!" width="150px">
</p>
<p align="center">
<b>The embedding model trained by <a href="https://jina.ai/"><b>Jina AI</b></a>.</b>
</p>
# Jina Embeddings v4: Universal Embeddings for Multimodal Multilingual Retrieval
[GGUF](https://github.com/jina-ai/jina-embeddings-v4-gguf) | [Blog](https://jina.ai/news/jina-embeddings-v4-universal-embeddings-for-multimodal-multilingual-retrieval) | [Technical Report](https://arxiv.org/abs/2506.18902) | [API](https://jina.ai/embeddings)
## Intended Usage & Model Info
`jina-embeddings-v4` is a universal embedding model for multimodal and multilingual retrieval.
The model is specially designed for complex document retrieval, including visually rich documents with charts, tables, and illustrations.
Built on [Qwen/Qwen2.5-VL-3B-Instruct](https://huggingface.co/Qwen/Qwen2.5-VL-3B-Instruct), `jina-embeddings-v4` features:
- **Unified embeddings** for text, images, and visual documents, supporting both dense (single-vector) and late-interaction (multi-vector) retrieval.
- **Multilingual support** (30+ languages) and compatibility with a wide range of domains, including technical and visually complex documents.
- **Task-specific adapters** for retrieval, text matching, and code-related tasks, which can be selected at inference time.
- **Flexible embedding size**: dense embeddings are 2048 dimensions by default but can be truncated to as low as 128 with minimal performance loss.
Summary of features:
| Feature | Jina Embeddings V4 |
|------------|------------|
| Base Model | Qwen2.5-VL-3B-Instruct |
| Supported Tasks | `retrieval`, `text-matching`, `code` |
| Model DType | BFloat 16 |
| Max Sequence Length | 32768 |
| Single-Vector Dimension | 2048 |
| Multi-Vector Dimension | 128 |
| Matryoshka dimensions | 128, 256, 512, 1024, 2048 |
| Pooling Strategy | Mean pooling |
| Attention Mechanism | FlashAttention2 |
## Training & Evaluation
Please refer to our [technical report of jina-embeddings-v4](https://arxiv.org/abs/2506.18902) for training details and benchmarks.
## Usage
<details>
<summary>Requirements</a></summary>
The following Python packages are required:
- `transformers>=4.52.0`
- `torch>=2.6.0`
- `peft>=0.15.2`
- `torchvision`
- `pillow`
### Optional / Recommended
- **flash-attention**: Installing [flash-attention](https://github.com/Dao-AILab/flash-attention) is recommended for improved inference speed and efficiency, but not mandatory.
- **sentence-transformers**: If you want to use the model via the `sentence-transformers` interface, install this package as well.
</details>
<details>
<summary>via <a href="https://jina.ai/embeddings/">Jina AI Embeddings API</a></summary>
```bash
curl https://api.jina.ai/v1/embeddings \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $JINA_AI_API_TOKEN" \
-d @- <<EOFEOF
{
"model": "jina-embeddings-v4",
"task": "text-matching",
"input": [
{
"text": "غروب جميل على الشاطئ"
},
{
"text": "海滩上美丽的日落"
},
{
"text": "A beautiful sunset over the beach"
},
{
"text": "Un beau coucher de soleil sur la plage"
},
{
"text": "Ein wunderschöner Sonnenuntergang am Strand"
},
{
"text": "Ένα όμορφο ηλιοβασίλεμα πάνω από την παραλία"
},
{
"text": "समुद्र तट पर एक खूबसूरत सूर्यास्त"
},
{
"text": "Un bellissimo tramonto sulla spiaggia"
},
{
"text": "浜辺に沈む美しい夕日"
},
{
"text": "해변 위로 아름다운 일몰"
},
{
"image": "https://i.ibb.co/nQNGqL0/beach1.jpg"
},
{
"image": "https://i.ibb.co/r5w8hG8/beach2.jpg"
}
]
}
EOFEOF
```
</details>
<details>
<summary>via <a href="https://huggingface.co/docs/transformers/en/index">transformers</a></summary>
```python
# !pip install transformers>=4.52.0 torch>=2.6.0 peft>=0.15.2 torchvision pillow
# !pip install
from transformers import AutoModel
import torch
# Initialize the model
model = AutoModel.from_pretrained("jinaai/jina-embeddings-v4", trust_remote_code=True, torch_dtype=torch.float16)
model.to("cuda")
# ========================
# 1. Retrieval Task
# ========================
# Configure truncate_dim, max_length (for texts), max_pixels (for images), vector_type, batch_size in the encode function if needed
# Encode query
query_embeddings = model.encode_text(
texts=["Overview of climate change impacts on coastal cities"],
task="retrieval",
prompt_name="query",
)
# Encode passage (text)
passage_embeddings = model.encode_text(
texts=[
"Climate change has led to rising sea levels, increased frequency of extreme weather events..."
],
task="retrieval",
prompt_name="passage",
)
# Encode image/document
image_embeddings = model.encode_image(
images=["https://i.ibb.co/nQNGqL0/beach1.jpg"],
task="retrieval",
)
# ========================
# 2. Text Matching Task
# ========================
texts = [
"غروب جميل على الشاطئ", # Arabic
"海滩上美丽的日落", # Chinese
"Un beau coucher de soleil sur la plage", # French
"Ein wunderschöner Sonnenuntergang am Strand", # German
"Ένα όμορφο ηλιοβασίλεμα πάνω από την παραλία", # Greek
"समुद्र तट पर एक खूबसूरत सूर्यास्त", # Hindi
"Un bellissimo tramonto sulla spiaggia", # Italian
"浜辺に沈む美しい夕日", # Japanese
"해변 위로 아름다운 일몰", # Korean
]
text_embeddings = model.encode_text(texts=texts, task="text-matching")
# ========================
# 3. Code Understanding Task
# ========================
# Encode query
query_embedding = model.encode_text(
texts=["Find a function that prints a greeting message to the console"],
task="code",
prompt_name="query",
)
# Encode code
code_embeddings = model.encode_text(
texts=["def hello_world():\n print('Hello, World!')"],
task="code",
prompt_name="passage",
)
# ========================
# 4. Use multivectors
# ========================
multivector_embeddings = model.encode_text(
texts=texts,
task="retrieval",
prompt_name="query",
return_multivector=True,
)
images = ["https://i.ibb.co/nQNGqL0/beach1.jpg", "https://i.ibb.co/r5w8hG8/beach2.jpg"]
multivector_image_embeddings = model.encode_image(
images=images,
task="retrieval",
return_multivector=True,
)
```
</details>
<details>
<summary>via <a href="https://sbert.net/">sentence-transformers</a></summary>
```python
from sentence_transformers import SentenceTransformer
# Initialize the model
model = SentenceTransformer("jinaai/jina-embeddings-v4", trust_remote_code=True)
# ========================
# 1. Retrieval Task
# ========================
# Encode query
query_embeddings = model.encode(
sentences=["Overview of climate change impacts on coastal cities"],
task="retrieval",
prompt_name="query",
)
print(f"query_embeddings.shape = {query_embeddings.shape}")
# Encode passage (text)
passage_embeddings = model.encode(
sentences=[
"Climate change has led to rising sea levels, increased frequency of extreme weather events..."
],
task="retrieval",
prompt_name="passage",
)
print(f"passage_embeddings.shape = {passage_embeddings.shape}")
# Encode image/document
image_embeddings = model.encode(
sentences=["https://i.ibb.co/nQNGqL0/beach1.jpg"],
task="retrieval",
)
print(f"image_embeddings.shape = {image_embeddings.shape}")
# ========================
# 2. Text Matching Task
# ========================
texts = [
"غروب جميل على الشاطئ", # Arabic
"海滩上美丽的日落", # Chinese
"Un beau coucher de soleil sur la plage", # French
"Ein wunderschöner Sonnenuntergang am Strand", # German
"Ένα όμορφο ηλιοβασίλεμα πάνω από την παραλία", # Greek
"समुद्र तट पर एक खूबसूरत सूर्यास्त", # Hindi
"Un bellissimo tramonto sulla spiaggia", # Italian
"浜辺に沈む美しい夕日", # Japanese
"해변 위로 아름다운 일몰", # Korean
]
text_embeddings = model.encode(sentences=texts, task="text-matching")
# ========================
# 3. Code Understanding Task
# ========================
# Encode query
query_embeddings = model.encode(
sentences=["Find a function that prints a greeting message to the console"],
task="code",
prompt_name="query",
)
# Encode code
code_embeddings = model.encode(
sentences=["def hello_world():\n print('Hello, World!')"],
task="code",
prompt_name="passage",
)
# ========================
# 4. Use multivectors
# ========================
# If you want to use multi-vector embeddings, please use the Hugging Face model directly.
```
</details>
<details>
<summary>via <a href="https://github.com/vllm-project/vllm">vLLM</a></summary>
We provide separate model versions for each task (`retrieval`, `text-matching`, `code`) where specific adapter is merged into the base `Qwen2.5-VL` weights.
This modification enables native compatibility with vLLM.
Instructions and usage examples for each task are available in their respective directories:
- [jina-embeddings-v4-vllm-retrieval](https://huggingface.co/jinaai/jina-embeddings-v4-vllm-retrieval)
- [jina-embeddings-v4-vllm-text-matching](https://huggingface.co/jinaai/jina-embeddings-v4-vllm-text-matching)
- [jina-embeddings-v4-vllm-code](https://huggingface.co/jinaai/jina-embeddings-v4-vllm-code)
Please refer to the directory that matches your task for more details.
</details>
## Jina-VDR
Alongside `jina-embeddings-v4`, we’re releasing [Jina VDR](https://github.com/jina-ai/jina-vdr), a multilingual, multi-domain benchmark for visual document retrieval. The task collection can be viewed [here](https://huggingface.co/collections/jinaai/jinavdr-visual-document-retrieval-684831c022c53b21c313b449), and evaluation instructions can be found [here](https://github.com/jina-ai/jina-vdr).
## License
This model was initially released under cc-by-nc-4.0 due to an error.
The correct license is the Qwen Research License, as this model is derived from Qwen-2.5-VL-3B which is governed by that license.
## Contact
Join our [Discord community](https://discord.jina.ai) and chat with other community members about ideas.
## Citation
If you find `jina-embeddings-v4` useful in your research, please cite the following paper:
```
@misc{günther2025jinaembeddingsv4universalembeddingsmultimodal,
title={jina-embeddings-v4: Universal Embeddings for Multimodal Multilingual Retrieval},
author={Michael Günther and Saba Sturua and Mohammad Kalim Akram and Isabelle Mohr and Andrei Ungureanu and Sedigheh Eslami and Scott Martens and Bo Wang and Nan Wang and Han Xiao},
year={2025},
eprint={2506.18902},
archivePrefix={arXiv},
primaryClass={cs.AI},
url={https://arxiv.org/abs/2506.18902},
}
```
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755588542
|
0xaoyama
| 2025-08-19T07:29:34Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:29:22Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
arx119/MyGemmaNPC
|
arx119
| 2025-08-19T07:29:17Z | 0 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"gemma3_text",
"text-generation",
"generated_from_trainer",
"trl",
"sft",
"conversational",
"base_model:google/gemma-3-270m-it",
"base_model:finetune:google/gemma-3-270m-it",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:25:14Z |
---
base_model: google/gemma-3-270m-it
library_name: transformers
model_name: MyGemmaNPC
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for MyGemmaNPC
This model is a fine-tuned version of [google/gemma-3-270m-it](https://huggingface.co/google/gemma-3-270m-it).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="arx119/MyGemmaNPC", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.6.0+cu124
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
donoway/ARC-Easy_Llama-3.2-1B-oqrx1b71
|
donoway
| 2025-08-19T07:27:38Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:10:49Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: ARC-Easy_Llama-3.2-1B-oqrx1b71
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# ARC-Easy_Llama-3.2-1B-oqrx1b71
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 3.7385
- Model Preparation Time: 0.0069
- Mdl: 3074.3332
- Accumulated Loss: 2130.9654
- Correct Preds: 371.0
- Total Preds: 570.0
- Accuracy: 0.6509
- Correct Gen Preds: 326.0
- Gen Accuracy: 0.5719
- Correct Gen Preds 32: 79.0
- Correct Preds 32: 103.0
- Total Labels 32: 158.0
- Accuracy 32: 0.6519
- Gen Accuracy 32: 0.5
- Correct Gen Preds 33: 110.0
- Correct Preds 33: 113.0
- Total Labels 33: 152.0
- Accuracy 33: 0.7434
- Gen Accuracy 33: 0.7237
- Correct Gen Preds 34: 91.0
- Correct Preds 34: 99.0
- Total Labels 34: 142.0
- Accuracy 34: 0.6972
- Gen Accuracy 34: 0.6408
- Correct Gen Preds 35: 46.0
- Correct Preds 35: 56.0
- Total Labels 35: 118.0
- Accuracy 35: 0.4746
- Gen Accuracy 35: 0.3898
- Correct Gen Preds 36: 0.0
- Correct Preds 36: 0.0
- Total Labels 36: 0.0
- Accuracy 36: 0.0
- Gen Accuracy 36: 0.0
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 112
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|
| No log | 0 | 0 | 1.5354 | 0.0069 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.4592 | 1.0 | 1 | 1.5354 | 0.0069 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.4587 | 2.0 | 2 | 2.8572 | 0.0069 | 2349.6051 | 1628.6221 | 188.0 | 570.0 | 0.3298 | 188.0 | 0.3298 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 46.0 | 46.0 | 152.0 | 0.3026 | 0.3026 | 141.0 | 141.0 | 142.0 | 0.9930 | 0.9930 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.7615 | 3.0 | 3 | 1.5150 | 0.0069 | 1245.8152 | 863.5333 | 173.0 | 570.0 | 0.3035 | 173.0 | 0.3035 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 151.0 | 151.0 | 152.0 | 0.9934 | 0.9934 | 8.0 | 8.0 | 142.0 | 0.0563 | 0.0563 | 14.0 | 14.0 | 118.0 | 0.1186 | 0.1186 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.683 | 4.0 | 4 | 1.3806 | 0.0069 | 1135.3136 | 786.9394 | 307.0 | 570.0 | 0.5386 | 254.0 | 0.4456 | 39.0 | 59.0 | 158.0 | 0.3734 | 0.2468 | 107.0 | 126.0 | 152.0 | 0.8289 | 0.7039 | 76.0 | 84.0 | 142.0 | 0.5915 | 0.5352 | 32.0 | 38.0 | 118.0 | 0.3220 | 0.2712 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0591 | 5.0 | 5 | 1.8312 | 0.0069 | 1505.8471 | 1043.7737 | 356.0 | 570.0 | 0.6246 | 262.0 | 0.4596 | 53.0 | 98.0 | 158.0 | 0.6203 | 0.3354 | 98.0 | 115.0 | 152.0 | 0.7566 | 0.6447 | 69.0 | 92.0 | 142.0 | 0.6479 | 0.4859 | 42.0 | 51.0 | 118.0 | 0.4322 | 0.3559 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0003 | 6.0 | 6 | 2.3233 | 0.0069 | 1910.5098 | 1324.2645 | 353.0 | 570.0 | 0.6193 | 288.0 | 0.5053 | 64.0 | 97.0 | 158.0 | 0.6139 | 0.4051 | 103.0 | 113.0 | 152.0 | 0.7434 | 0.6776 | 75.0 | 90.0 | 142.0 | 0.6338 | 0.5282 | 46.0 | 53.0 | 118.0 | 0.4492 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 7.0 | 7 | 2.6634 | 0.0069 | 2190.2029 | 1518.1330 | 366.0 | 570.0 | 0.6421 | 306.0 | 0.5368 | 66.0 | 101.0 | 158.0 | 0.6392 | 0.4177 | 108.0 | 115.0 | 152.0 | 0.7566 | 0.7105 | 81.0 | 95.0 | 142.0 | 0.6690 | 0.5704 | 51.0 | 55.0 | 118.0 | 0.4661 | 0.4322 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 8.0 | 8 | 2.9283 | 0.0069 | 2408.0786 | 1669.1529 | 365.0 | 570.0 | 0.6404 | 313.0 | 0.5491 | 67.0 | 101.0 | 158.0 | 0.6392 | 0.4241 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 87.0 | 96.0 | 142.0 | 0.6761 | 0.6127 | 50.0 | 55.0 | 118.0 | 0.4661 | 0.4237 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 9.0 | 9 | 3.1394 | 0.0069 | 2581.6660 | 1789.4745 | 370.0 | 570.0 | 0.6491 | 318.0 | 0.5579 | 70.0 | 104.0 | 158.0 | 0.6582 | 0.4430 | 110.0 | 115.0 | 152.0 | 0.7566 | 0.7237 | 88.0 | 97.0 | 142.0 | 0.6831 | 0.6197 | 50.0 | 54.0 | 118.0 | 0.4576 | 0.4237 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 10.0 | 10 | 3.2952 | 0.0069 | 2709.7573 | 1878.2607 | 368.0 | 570.0 | 0.6456 | 314.0 | 0.5509 | 73.0 | 101.0 | 158.0 | 0.6392 | 0.4620 | 109.0 | 114.0 | 152.0 | 0.75 | 0.7171 | 86.0 | 98.0 | 142.0 | 0.6901 | 0.6056 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 11.0 | 11 | 3.4102 | 0.0069 | 2804.3076 | 1943.7979 | 366.0 | 570.0 | 0.6421 | 318.0 | 0.5579 | 74.0 | 100.0 | 158.0 | 0.6329 | 0.4684 | 109.0 | 114.0 | 152.0 | 0.75 | 0.7171 | 89.0 | 98.0 | 142.0 | 0.6901 | 0.6268 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 12.0 | 12 | 3.4933 | 0.0069 | 2872.6570 | 1991.1741 | 366.0 | 570.0 | 0.6421 | 320.0 | 0.5614 | 74.0 | 100.0 | 158.0 | 0.6329 | 0.4684 | 110.0 | 114.0 | 152.0 | 0.75 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 13.0 | 13 | 3.5624 | 0.0069 | 2929.5074 | 2030.5798 | 364.0 | 570.0 | 0.6386 | 318.0 | 0.5579 | 75.0 | 100.0 | 158.0 | 0.6329 | 0.4747 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 88.0 | 97.0 | 142.0 | 0.6831 | 0.6197 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 14.0 | 14 | 3.6095 | 0.0069 | 2968.2088 | 2057.4056 | 365.0 | 570.0 | 0.6404 | 318.0 | 0.5579 | 71.0 | 100.0 | 158.0 | 0.6329 | 0.4494 | 111.0 | 114.0 | 152.0 | 0.75 | 0.7303 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 15.0 | 15 | 3.6542 | 0.0069 | 3004.9703 | 2082.8867 | 368.0 | 570.0 | 0.6456 | 319.0 | 0.5596 | 73.0 | 102.0 | 158.0 | 0.6456 | 0.4620 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 16.0 | 16 | 3.6640 | 0.0069 | 3013.0252 | 2088.4699 | 367.0 | 570.0 | 0.6439 | 321.0 | 0.5632 | 73.0 | 101.0 | 158.0 | 0.6392 | 0.4620 | 111.0 | 114.0 | 152.0 | 0.75 | 0.7303 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 17.0 | 17 | 3.6991 | 0.0069 | 3041.8667 | 2108.4613 | 369.0 | 570.0 | 0.6474 | 321.0 | 0.5632 | 76.0 | 103.0 | 158.0 | 0.6519 | 0.4810 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 18.0 | 18 | 3.7206 | 0.0069 | 3059.5550 | 2120.7219 | 370.0 | 570.0 | 0.6491 | 321.0 | 0.5632 | 77.0 | 104.0 | 158.0 | 0.6582 | 0.4873 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 19.0 | 19 | 3.7281 | 0.0069 | 3065.7453 | 2125.0127 | 368.0 | 570.0 | 0.6456 | 320.0 | 0.5614 | 74.0 | 102.0 | 158.0 | 0.6456 | 0.4684 | 110.0 | 114.0 | 152.0 | 0.75 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 20.0 | 20 | 3.7380 | 0.0069 | 3073.8754 | 2130.6481 | 369.0 | 570.0 | 0.6474 | 321.0 | 0.5632 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 109.0 | 114.0 | 152.0 | 0.75 | 0.7171 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 21.0 | 21 | 3.7385 | 0.0069 | 3074.3332 | 2130.9654 | 371.0 | 570.0 | 0.6509 | 326.0 | 0.5719 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 22.0 | 22 | 3.7640 | 0.0069 | 3095.2993 | 2145.4980 | 366.0 | 570.0 | 0.6421 | 319.0 | 0.5596 | 75.0 | 101.0 | 158.0 | 0.6392 | 0.4747 | 108.0 | 113.0 | 152.0 | 0.7434 | 0.7105 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 23.0 | 23 | 3.7726 | 0.0069 | 3102.3483 | 2150.3840 | 367.0 | 570.0 | 0.6439 | 325.0 | 0.5702 | 81.0 | 102.0 | 158.0 | 0.6456 | 0.5127 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 24.0 | 24 | 3.7770 | 0.0069 | 3105.9931 | 2152.9104 | 368.0 | 570.0 | 0.6456 | 321.0 | 0.5632 | 76.0 | 102.0 | 158.0 | 0.6456 | 0.4810 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 25.0 | 25 | 3.7813 | 0.0069 | 3109.4856 | 2155.3312 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 26.0 | 26 | 3.7764 | 0.0069 | 3105.4752 | 2152.5513 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 27.0 | 27 | 3.7828 | 0.0069 | 3110.7617 | 2156.2157 | 365.0 | 570.0 | 0.6404 | 321.0 | 0.5632 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 28.0 | 28 | 3.7887 | 0.0069 | 3115.5792 | 2159.5549 | 367.0 | 570.0 | 0.6439 | 321.0 | 0.5632 | 78.0 | 102.0 | 158.0 | 0.6456 | 0.4937 | 108.0 | 111.0 | 152.0 | 0.7303 | 0.7105 | 90.0 | 99.0 | 142.0 | 0.6972 | 0.6338 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 29.0 | 29 | 3.7980 | 0.0069 | 3123.2559 | 2164.8760 | 366.0 | 570.0 | 0.6421 | 324.0 | 0.5684 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 30.0 | 30 | 3.7857 | 0.0069 | 3113.0984 | 2157.8354 | 369.0 | 570.0 | 0.6474 | 325.0 | 0.5702 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 110.0 | 114.0 | 152.0 | 0.75 | 0.7237 | 92.0 | 99.0 | 142.0 | 0.6972 | 0.6479 | 44.0 | 54.0 | 118.0 | 0.4576 | 0.3729 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 31.0 | 31 | 3.8105 | 0.0069 | 3133.4788 | 2171.9620 | 367.0 | 570.0 | 0.6439 | 323.0 | 0.5667 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 109.0 | 111.0 | 152.0 | 0.7303 | 0.7171 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 32.0 | 32 | 3.7983 | 0.0069 | 3123.4747 | 2165.0277 | 368.0 | 570.0 | 0.6456 | 323.0 | 0.5667 | 80.0 | 103.0 | 158.0 | 0.6519 | 0.5063 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 89.0 | 98.0 | 142.0 | 0.6901 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 33.0 | 33 | 3.7838 | 0.0069 | 3111.5678 | 2156.7744 | 368.0 | 570.0 | 0.6456 | 320.0 | 0.5614 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 34.0 | 34 | 3.8000 | 0.0069 | 3124.8632 | 2165.9901 | 366.0 | 570.0 | 0.6421 | 320.0 | 0.5614 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 108.0 | 111.0 | 152.0 | 0.7303 | 0.7105 | 88.0 | 97.0 | 142.0 | 0.6831 | 0.6197 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 35.0 | 35 | 3.8131 | 0.0069 | 3135.6651 | 2173.4774 | 363.0 | 570.0 | 0.6368 | 320.0 | 0.5614 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 107.0 | 110.0 | 152.0 | 0.7237 | 0.7039 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 36.0 | 36 | 3.7965 | 0.0069 | 3121.9935 | 2164.0010 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 89.0 | 98.0 | 142.0 | 0.6901 | 0.6268 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 37.0 | 37 | 3.7996 | 0.0069 | 3124.5287 | 2165.7583 | 368.0 | 570.0 | 0.6456 | 322.0 | 0.5649 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 38.0 | 38 | 3.7855 | 0.0069 | 3112.9473 | 2157.7307 | 369.0 | 570.0 | 0.6474 | 324.0 | 0.5684 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 44.0 | 54.0 | 118.0 | 0.4576 | 0.3729 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 39.0 | 39 | 3.7976 | 0.0069 | 3122.9250 | 2164.6467 | 366.0 | 570.0 | 0.6421 | 322.0 | 0.5649 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 108.0 | 111.0 | 152.0 | 0.7303 | 0.7105 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 40.0 | 40 | 3.7913 | 0.0069 | 3117.7141 | 2161.0348 | 366.0 | 570.0 | 0.6421 | 323.0 | 0.5667 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 41.0 | 41 | 3.8044 | 0.0069 | 3128.4659 | 2168.4873 | 370.0 | 570.0 | 0.6491 | 321.0 | 0.5632 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 107.0 | 112.0 | 152.0 | 0.7368 | 0.7039 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 42.0 | 42 | 3.8034 | 0.0069 | 3127.6742 | 2167.9386 | 367.0 | 570.0 | 0.6439 | 323.0 | 0.5667 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 89.0 | 96.0 | 142.0 | 0.6761 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 43.0 | 43 | 3.7958 | 0.0069 | 3121.3983 | 2163.5884 | 367.0 | 570.0 | 0.6439 | 323.0 | 0.5667 | 80.0 | 102.0 | 158.0 | 0.6456 | 0.5063 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 44.0 | 44 | 3.8052 | 0.0069 | 3129.1145 | 2168.9369 | 366.0 | 570.0 | 0.6421 | 321.0 | 0.5632 | 77.0 | 101.0 | 158.0 | 0.6392 | 0.4873 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 45.0 | 45 | 3.7989 | 0.0069 | 3123.9498 | 2165.3570 | 367.0 | 570.0 | 0.6439 | 324.0 | 0.5684 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 46.0 | 46 | 3.8045 | 0.0069 | 3128.6029 | 2168.5823 | 369.0 | 570.0 | 0.6474 | 322.0 | 0.5649 | 76.0 | 102.0 | 158.0 | 0.6456 | 0.4810 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 92.0 | 99.0 | 142.0 | 0.6972 | 0.6479 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 47.0 | 47 | 3.8041 | 0.0069 | 3128.2620 | 2168.3460 | 367.0 | 570.0 | 0.6439 | 324.0 | 0.5684 | 81.0 | 103.0 | 158.0 | 0.6519 | 0.5127 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 48.0 | 48 | 3.7913 | 0.0069 | 3117.7010 | 2161.0257 | 367.0 | 570.0 | 0.6439 | 321.0 | 0.5632 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 49.0 | 49 | 3.8082 | 0.0069 | 3131.6407 | 2170.6880 | 365.0 | 570.0 | 0.6404 | 321.0 | 0.5632 | 78.0 | 101.0 | 158.0 | 0.6392 | 0.4937 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 50.0 | 50 | 3.8087 | 0.0069 | 3132.0417 | 2170.9659 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 51.0 | 51 | 3.7933 | 0.0069 | 3119.3595 | 2162.1753 | 368.0 | 570.0 | 0.6456 | 321.0 | 0.5632 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
nightmedia/Cydonia-24B-v4.1-q6-mlx
|
nightmedia
| 2025-08-19T07:24:42Z | 0 | 0 |
mlx
|
[
"mlx",
"safetensors",
"mistral",
"text-generation",
"conversational",
"base_model:TheDrummer/Cydonia-24B-v4.1",
"base_model:quantized:TheDrummer/Cydonia-24B-v4.1",
"6-bit",
"region:us"
] |
text-generation
| 2025-08-19T06:13:01Z |
---
base_model: TheDrummer/Cydonia-24B-v4.1
library_name: mlx
tags:
- mlx
pipeline_tag: text-generation
---
# Cydonia-24B-v4.1-q6-mlx
This model [Cydonia-24B-v4.1-q6-mlx](https://huggingface.co/Cydonia-24B-v4.1-q6-mlx) was
converted to MLX format from [TheDrummer/Cydonia-24B-v4.1](https://huggingface.co/TheDrummer/Cydonia-24B-v4.1)
using mlx-lm version **0.26.3**.
## Use with mlx
```bash
pip install mlx-lm
```
```python
from mlx_lm import load, generate
model, tokenizer = load("Cydonia-24B-v4.1-q6-mlx")
prompt = "hello"
if tokenizer.chat_template is not None:
messages = [{"role": "user", "content": prompt}]
prompt = tokenizer.apply_chat_template(
messages, add_generation_prompt=True
)
response = generate(model, tokenizer, prompt=prompt, verbose=True)
```
|
VoilaRaj/78_w9weWC
|
VoilaRaj
| 2025-08-19T07:24:30Z | 0 | 0 | null |
[
"safetensors",
"any-to-any",
"omega",
"omegalabs",
"bittensor",
"agi",
"license:mit",
"region:us"
] |
any-to-any
| 2025-08-19T07:20:40Z |
---
license: mit
tags:
- any-to-any
- omega
- omegalabs
- bittensor
- agi
---
This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet.
Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
|
joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05
|
joanna302
| 2025-08-19T07:22:08Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"unsloth",
"sft",
"trl",
"conversational",
"base_model:unsloth/Qwen3-1.7B-Base",
"base_model:finetune:unsloth/Qwen3-1.7B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T06:13:21Z |
---
base_model: unsloth/Qwen3-1.7B-Base
library_name: transformers
model_name: Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05
tags:
- generated_from_trainer
- unsloth
- sft
- trl
licence: license
---
# Model Card for Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05
This model is a fine-tuned version of [unsloth/Qwen3-1.7B-Base](https://huggingface.co/unsloth/Qwen3-1.7B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05/runs/0n0rwdqr)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
yaelahnal/blockassist-bc-mute_clawed_crab_1755587986
|
yaelahnal
| 2025-08-19T07:20:56Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"mute clawed crab",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:20:38Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- mute clawed crab
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05
|
joanna302
| 2025-08-19T07:20:11Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"trl",
"unsloth",
"sft",
"conversational",
"base_model:unsloth/Qwen3-1.7B-Base",
"base_model:finetune:unsloth/Qwen3-1.7B-Base",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-18T19:26:17Z |
---
base_model: unsloth/Qwen3-1.7B-Base
library_name: transformers
model_name: Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05
tags:
- generated_from_trainer
- trl
- unsloth
- sft
licence: license
---
# Model Card for Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05
This model is a fine-tuned version of [unsloth/Qwen3-1.7B-Base](https://huggingface.co/unsloth/Qwen3-1.7B-Base).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05/runs/etq37ph9)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 3.6.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
Suprim003/a2c-PandaReachDense-v3
|
Suprim003
| 2025-08-19T07:19:25Z | 0 | 0 |
stable-baselines3
|
[
"stable-baselines3",
"PandaReachDense-v3",
"deep-reinforcement-learning",
"reinforcement-learning",
"model-index",
"region:us"
] |
reinforcement-learning
| 2025-08-19T07:10:36Z |
---
library_name: stable-baselines3
tags:
- PandaReachDense-v3
- deep-reinforcement-learning
- reinforcement-learning
- stable-baselines3
model-index:
- name: A2C
results:
- task:
type: reinforcement-learning
name: reinforcement-learning
dataset:
name: PandaReachDense-v3
type: PandaReachDense-v3
metrics:
- type: mean_reward
value: -0.19 +/- 0.08
name: mean_reward
verified: false
---
# **A2C** Agent playing **PandaReachDense-v3**
This is a trained model of a **A2C** agent playing **PandaReachDense-v3**
using the [stable-baselines3 library](https://github.com/DLR-RM/stable-baselines3).
## Usage (with Stable-baselines3)
TODO: Add your code
```python
from stable_baselines3 import ...
from huggingface_sb3 import load_from_hub
...
```
|
michaelcpage345/blockassist-bc-miniature_deadly_anteater_1755586150
|
michaelcpage345
| 2025-08-19T07:19:13Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"miniature deadly anteater",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:19:10Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- miniature deadly anteater
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755587787
|
IvanJAjebu
| 2025-08-19T07:17:54Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:17:30Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755586711
|
Sayemahsjn
| 2025-08-19T07:17:46Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"playful feline octopus",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:17:41Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- playful feline octopus
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
yaelahnal/blockassist-bc-mute_clawed_crab_1755587579
|
yaelahnal
| 2025-08-19T07:14:05Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"mute clawed crab",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:13:47Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- mute clawed crab
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
forstseh/blockassist-bc-arctic_soaring_heron_1755583649
|
forstseh
| 2025-08-19T07:12:57Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"arctic soaring heron",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:12:42Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- arctic soaring heron
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755587521
|
0xaoyama
| 2025-08-19T07:12:34Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:12:23Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
lqpl/blockassist-bc-hairy_insectivorous_antelope_1755587466
|
lqpl
| 2025-08-19T07:12:31Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"hairy insectivorous antelope",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:12:06Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- hairy insectivorous antelope
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
jasminekitty328/full_4000_intentconan
|
jasminekitty328
| 2025-08-19T07:11:42Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"t5",
"text2text-generation",
"arxiv:1910.09700",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T07:11:10Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
insanesaga/Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison
|
insanesaga
| 2025-08-19T07:09:35Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen2",
"text-generation",
"generated_from_trainer",
"rl-swarm",
"grpo",
"gensyn",
"I am nocturnal clawed bison",
"unsloth",
"trl",
"genrl-swarm",
"I am nocturnal_clawed_bison",
"conversational",
"arxiv:2402.03300",
"base_model:Gensyn/Qwen2.5-1.5B-Instruct",
"base_model:finetune:Gensyn/Qwen2.5-1.5B-Instruct",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-05-27T13:39:41Z |
---
base_model: Gensyn/Qwen2.5-1.5B-Instruct
library_name: transformers
model_name: Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison
tags:
- generated_from_trainer
- rl-swarm
- grpo
- gensyn
- I am nocturnal clawed bison
- unsloth
- trl
- genrl-swarm
- I am nocturnal_clawed_bison
licence: license
---
# Model Card for Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison
This model is a fine-tuned version of [Gensyn/Qwen2.5-1.5B-Instruct](https://huggingface.co/Gensyn/Qwen2.5-1.5B-Instruct).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="insanesaga/Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with GRPO, a method introduced in [DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models](https://huggingface.co/papers/2402.03300).
### Framework versions
- TRL: 0.15.2
- Transformers: 4.51.3
- Pytorch: 2.5.1
- Datasets: 3.6.0
- Tokenizers: 0.21.1
## Citations
Cite GRPO as:
```bibtex
@article{zhihong2024deepseekmath,
title = {{DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models}},
author = {Zhihong Shao and Peiyi Wang and Qihao Zhu and Runxin Xu and Junxiao Song and Mingchuan Zhang and Y. K. Li and Y. Wu and Daya Guo},
year = 2024,
eprint = {arXiv:2402.03300},
}
```
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouédec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755587338
|
0xaoyama
| 2025-08-19T07:09:33Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T07:09:20Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
BlazePro12/merged_grok_data_mcp_3
|
BlazePro12
| 2025-08-19T07:05:00Z | 0 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"generated_from_trainer",
"trl",
"sft",
"base_model:google/gemma-3-270m-it",
"base_model:finetune:google/gemma-3-270m-it",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T06:51:50Z |
---
base_model: google/gemma-3-270m-it
library_name: transformers
model_name: merged_grok_data_mcp_3
tags:
- generated_from_trainer
- trl
- sft
licence: license
---
# Model Card for merged_grok_data_mcp_3
This model is a fine-tuned version of [google/gemma-3-270m-it](https://huggingface.co/google/gemma-3-270m-it).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="BlazePro12/merged_grok_data_mcp_3", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.8.0
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
amoriodi/model-test-2
|
amoriodi
| 2025-08-19T07:04:42Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"llama",
"text-generation",
"axolotl",
"base_model:adapter:meta-llama/Llama-3.1-8B-Instruct",
"lora",
"transformers",
"conversational",
"dataset:amoriodi/example_dataset",
"base_model:meta-llama/Llama-3.1-8B-Instruct",
"license:llama3.1",
"text-generation-inference",
"endpoints_compatible",
"4-bit",
"bitsandbytes",
"region:us"
] |
text-generation
| 2025-08-19T07:04:28Z |
---
library_name: peft
license: llama3.1
base_model: meta-llama/Llama-3.1-8B-Instruct
tags:
- axolotl
- base_model:adapter:meta-llama/Llama-3.1-8B-Instruct
- lora
- transformers
datasets:
- amoriodi/example_dataset
pipeline_tag: text-generation
model-index:
- name: outputs/llama-sft-reverse
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl)
<details><summary>See axolotl config</summary>
axolotl version: `0.13.0.dev0`
```yaml
adapter: qlora
base_model: meta-llama/Llama-3.1-8B-Instruct
bf16: false
chat_template: qwen3
dataloader_num_workers: 2
dataloader_pin_memory: true
dataloader_prefetch_factor: 8
datasets:
- path: amoriodi/example_dataset
split: train
type: chat_template
embedding_skip_upcast: true
fp16: true
gradient_accumulation_steps: 1
gradient_checkpointing: true
gradient_checkpointing_kwargs:
use_reentrant: false
learning_rate: 0.00019
load_in_4bit: true
logging_steps: 1
lora_alpha: 64
lora_mlp_kernel: true
lora_o_kernel: true
lora_qkv_kernel: true
lora_r: 32
lora_target_modules:
- q_proj
- k_proj
- v_proj
- o_proj
- gate_proj
- up_proj
- down_proj
lr_scheduler: cosine
max_grad_norm: 0.1
micro_batch_size: 1
num_epochs: 1
optimizer: paged_adamw_8bit
output_dir: ./outputs/llama-sft-reverse
plugins:
- axolotl.integrations.cut_cross_entropy.CutCrossEntropyPlugin
sample_packing: true
saves_per_epoch: 2
sequence_len: 4096
special_tokens:
pad_token: <|end_of_text|>
warmup_steps: 5
```
</details><br>
# outputs/llama-sft-reverse
This model is a fine-tuned version of [meta-llama/Llama-3.1-8B-Instruct](https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct) on the amoriodi/example_dataset dataset.
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.00019
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- optimizer: Use OptimizerNames.PAGED_ADAMW_8BIT with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_steps: 5
- training_steps: 1296
- mixed_precision_training: Native AMP
### Training results
### Framework versions
- PEFT 0.17.0
- Transformers 4.55.2
- Pytorch 2.7.1+cu126
- Datasets 4.0.0
- Tokenizers 0.21.4
|
djc05142/cst_quantized_model_v3
|
djc05142
| 2025-08-19T07:02:11Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T07:00:56Z |
---
library_name: transformers
tags: []
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755586670
|
IvanJAjebu
| 2025-08-19T06:59:19Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:58:56Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
yaelahnal/blockassist-bc-mute_clawed_crab_1755586657
|
yaelahnal
| 2025-08-19T06:58:55Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"mute clawed crab",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:58:29Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- mute clawed crab
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
KCS97/rc_car
|
KCS97
| 2025-08-19T06:58:18Z | 0 | 0 |
diffusers
|
[
"diffusers",
"tensorboard",
"safetensors",
"text-to-image",
"dreambooth",
"diffusers-training",
"stable-diffusion",
"stable-diffusion-diffusers",
"base_model:stable-diffusion-v1-5/stable-diffusion-v1-5",
"base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5",
"license:creativeml-openrail-m",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-08-19T06:45:17Z |
---
base_model: stable-diffusion-v1-5/stable-diffusion-v1-5
library_name: diffusers
license: creativeml-openrail-m
inference: true
instance_prompt: a photo of sks toy
tags:
- text-to-image
- dreambooth
- diffusers-training
- stable-diffusion
- stable-diffusion-diffusers
---
<!-- This model card has been generated automatically according to the information the training script had access to. You
should probably proofread and complete it, then remove this comment. -->
# DreamBooth - KCS97/rc_car
This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks toy using [DreamBooth](https://dreambooth.github.io/).
You can find some example images in the following.
DreamBooth for the text encoder was enabled: False.
## Intended uses & limitations
#### How to use
```python
# TODO: add an example code snippet for running this diffusion pipeline
```
#### Limitations and bias
[TODO: provide examples of latent issues and potential remediations]
## Training details
[TODO: describe the data used to train the model]
|
XiangDeyi/xdytest1
|
XiangDeyi
| 2025-08-19T06:58:14Z | 0 | 0 | null |
[
"license:apache-2.0",
"region:us"
] | null | 2025-08-19T06:58:14Z |
---
license: apache-2.0
---
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755586541
|
0xaoyama
| 2025-08-19T06:56:13Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:56:02Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
resistz/sft_Qwen3-8B-Base_ultra200k_lora32
|
resistz
| 2025-08-19T06:55:24Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"base_model:adapter:Qwen/Qwen3-8B-Base",
"lora",
"sft",
"trl",
"text-generation",
"conversational",
"base_model:Qwen/Qwen3-8B-Base",
"region:us"
] |
text-generation
| 2025-08-19T06:54:12Z |
---
library_name: peft
model_name: sft_Qwen3-8B-Base_ultra200k_lora32
tags:
- base_model:adapter:Qwen/Qwen3-8B-Base
- lora
- sft
- trl
licence: license
pipeline_tag: text-generation
base_model: Qwen/Qwen3-8B-Base
---
# Model Card for sft_Qwen3-8B-Base_ultra200k_lora32
This model is a fine-tuned version of [None](https://huggingface.co/None).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="None", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/resistzzz97/Alignment_Influence/runs/9rimz0x9)
This model was trained with SFT.
### Framework versions
- PEFT 0.17.0
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.7.1
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
quantumxnode/blockassist-bc-dormant_peckish_seahorse_1755584819
|
quantumxnode
| 2025-08-19T06:54:43Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"dormant peckish seahorse",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:54:39Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- dormant peckish seahorse
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
resistz/sft_Qwen3-4B-Base_ultra200k
|
resistz
| 2025-08-19T06:53:44Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"qwen3",
"text-generation",
"generated_from_trainer",
"sft",
"trl",
"conversational",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T06:49:25Z |
---
library_name: transformers
model_name: sft_Qwen3-4B-Base_ultra200k
tags:
- generated_from_trainer
- sft
- trl
licence: license
---
# Model Card for sft_Qwen3-4B-Base_ultra200k
This model is a fine-tuned version of [None](https://huggingface.co/None).
It has been trained using [TRL](https://github.com/huggingface/trl).
## Quick start
```python
from transformers import pipeline
question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?"
generator = pipeline("text-generation", model="None", device="cuda")
output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0]
print(output["generated_text"])
```
## Training procedure
[<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/resistzzz97/Alignment_Influence/runs/eswkk8st)
This model was trained with SFT.
### Framework versions
- TRL: 0.21.0
- Transformers: 4.55.2
- Pytorch: 2.7.1
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citations
Cite TRL as:
```bibtex
@misc{vonwerra2022trl,
title = {{TRL: Transformer Reinforcement Learning}},
author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec},
year = 2020,
journal = {GitHub repository},
publisher = {GitHub},
howpublished = {\url{https://github.com/huggingface/trl}}
}
```
|
Lupakisyo/Fai1
|
Lupakisyo
| 2025-08-19T06:53:18Z | 0 | 0 |
transformers
|
[
"transformers",
"tensorboard",
"safetensors",
"bert",
"text-classification",
"autotrain",
"base_model:google-bert/bert-base-uncased",
"base_model:finetune:google-bert/bert-base-uncased",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
text-classification
| 2025-08-19T06:48:57Z |
---
library_name: transformers
tags:
- autotrain
- text-classification
base_model: google-bert/bert-base-uncased
widget:
- text: "I love AutoTrain"
---
# Model Trained Using AutoTrain
- Problem type: Text Classification
## Validation Metrics
loss: 1.0608001947402954
f1_macro: 0.27777777777777773
f1_micro: 0.4
f1_weighted: 0.3416666666666667
precision_macro: 0.26666666666666666
precision_micro: 0.4
precision_weighted: 0.32
recall_macro: 0.31746031746031744
recall_micro: 0.4
recall_weighted: 0.4
accuracy: 0.4
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755586280
|
IvanJAjebu
| 2025-08-19T06:52:32Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:52:24Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755586155
|
0xaoyama
| 2025-08-19T06:49:47Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:49:36Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
HoangVuSnape/vietnamese-document-embedding_pr_v2_ep30_new
|
HoangVuSnape
| 2025-08-19T06:49:05Z | 0 | 0 |
sentence-transformers
|
[
"sentence-transformers",
"safetensors",
"Vietnamese",
"sentence-similarity",
"feature-extraction",
"dense",
"generated_from_trainer",
"dataset_size:1472",
"loss:MatryoshkaLoss",
"loss:MultipleNegativesRankingLoss",
"custom_code",
"arxiv:1908.10084",
"arxiv:2205.13147",
"arxiv:1705.00652",
"base_model:dangvantuan/vietnamese-document-embedding",
"base_model:finetune:dangvantuan/vietnamese-document-embedding",
"model-index",
"autotrain_compatible",
"endpoints_compatible",
"region:us"
] |
sentence-similarity
| 2025-08-19T06:47:29Z |
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:1472
- loss:MatryoshkaLoss
- loss:MultipleNegativesRankingLoss
base_model: dangvantuan/vietnamese-document-embedding
widget:
- source_sentence: Những điểm đặc biệt của chương trình học là gì?
sentences:
- 'Các phòng thí nghiệm này giúp sinh viên thực hành và nghiên cứu các phản ứng
hoá học, phân tích chất lượng sản phẩm và môi trường. CÁC ĐIỂM ĐẶC BIỆT
Chương trình học thực tiễn: Sinh viên có cơ hội tham gia các nghiên cứu thực tế
tại các phòng thí nghiệm của trường và các công ty, giúp họ phát triển các kỹ
năng thực hành và nghiên cứu hoá học. Môi trường học tập quốc tế: Sinh viên có
cơ hội tham gia các chương trình trao đổi sinh viên và hợp tác nghiên cứu với
các đối tác quốc tế trong lĩnh vực hoá học. Học bổng và cơ hội du học: Các chương
trình học bổng và cơ hội du học bậc thạc sĩ, tiến sĩ tại các trường đại học danh
tiếng trên thế giới. TRIỂN VỌNG NGHỀ NGHIỆP & CƠ HỘI VIỆC LÀM
Sinh viên tốt nghiệp ngành Hoá học có thể làm việc trong các lĩnh vực như:
Công nghiệp hoá chất và dược phẩm: Làm việc tại các công ty sản xuất hoá chất,
dược phẩm, sản xuất vật liệu và sản phẩm hoá học khác. Ngành thực phẩm và bảo
vệ môi trường: Nghiên cứu và phát triển các sản phẩm thực phẩm, phân tích chất
lượng thực phẩm, và xử lý chất thải hoá học trong công nghiệp.'
- 'Trường Đại học Ngoại Thương Cơ sở II
Tiếng Anh: Foreign Trade University Ho Chi Minh City Campus (FTU2) Trường Đại
học Ngoại Thương cơ sở II là cơ sở đào tạo phía Nam của Trường Đại học Ngoại thương
tại Hà Nội, đại học chuyên ngành kinh tế đầu ngành tại Việt Nam và thành viên
của Bộ Giáo dục và Đào tạo. Cơ sở này được thành lập dựa trên nhu cầu đào tạo
cán bộ trong lĩnh vực kinh tế và kinh doanh quốc tế tại các tỉnh thành phía Nam
trong giai đoạn hội nhập kinh tế quốc tế. Cơ sở được thành lập theo Quyết định
số 1485/GD-ĐT ngày 16/07/1993 của Bộ trưởng Bộ Giáo dục và Đào tạo Việt Nam. Tên
trường: Trường Đại học Ngoại thương (Cơ sở 2)
Tên tiếng Anh: Foreign Trade University (FTU)
Mã trường: NTS
Trực thuộc: Bộ Giáo dục và Đào tạo
Loại trường: Công lập
Loại hình đào tạo: Đại học – Sau đại học
Lĩnh vực: Kinh tế
Địa chỉ: Số 15 Đường D5, Khu Văn Thánh Bắc, Phường 25, Quận Bình Thạnh, TP Hồ
Chí Minh
Điện thoại:
Email:
Website: http://cs2.ftu.edu.vn/
Fanpage: https://www.facebook.com/ftu2hcmc/
Lịch sử
1962
Ngày 20/06/1962, theo Quyết định của Thủ tướng Chính phủ, Khoa Quan hệ Quốc tế
tách khỏi Trường Đại học Kinh tế - Tài chính để thành lập Trường Cán bộ Ngoại
giao - Ngoại thương trực thuộc Bộ Ngoại giao. Trụ sở ban đầu được đặt tại làng
Láng, tỉnh Hà Đông (nay là phường Láng Thượng, Hà Nội). 1967
Ngày 05/08/1967, theo đề nghị của Bộ Ngoại giao và Bộ Ngoại thương, Thủ tướng
Phạm Văn Đồng đã ký Quyết định số 123/CP, chia tách Trường Cán bộ Ngoại giao -
Ngoại thương thành hai trường:
Trường Ngoại giao (nay là Học viện Ngoại giao) trực thuộc Bộ Ngoại giao. Trường
Ngoại thương thuộc Bộ Ngoại thương (nay là Bộ Công Thương). 1985
Trường Đại học Ngoại thương chuyển từ Bộ Ngoại thương sang trực thuộc Bộ Đại học
và Trung học Chuyên nghiệp (nay là Bộ Giáo dục và Đào tạo). 1993
Ngày 16/07/1993, xuất phát từ nhu cầu đào tạo cán bộ kinh tế và kinh doanh quốc
tế tại Thành phố Hồ Chí Minh và các tỉnh thành phía Nam, Cơ sở II Trường Đại học
Ngoại thương tại TP.'
- 'Điểm xét tuyển được làm tròn đến 02 chữ số thập phân. - Điểm xét tuyển được xác
định như sau (làm tròn đến 02 chữ số thập phân): Điểm xét tuyển = [(ĐM1*HS môn
1+ ĐM2*HS môn 2 + ĐM3 * HS môn 3)*3]/(Tổng hệ số) + Điểm ưu tiên Khu vực + Điểm
ưu tiên đối tượng. (*) Điểm trúng tuyển ngành Luật, Luật kinh tế: tổ hợp Văn,
Sử, Địa cao hơn 1.5 điểm. (1) Ngành ngôn ngữ Anh, ngôn ngữ Trung Quốc, ngôn ngữ
Nhật, ngôn ngữ Hàn Quốc: Ngoại ngữ nhân hệ số 2. (2) Các ngành Khoa học máy tính,
Khoa học máy tính Chất lượng cao, Công nghệ thông tin, CTKT công trình xây dựng,
CNKT công trình xây dựng Chất lượng cao, Quản lý xây dựng: Toán nhân hệ số 2.
(3) Các ngành Chất lượng cao: Luật kinh tế, Ngôn ngữ Anh, Ngôn ngữ Trung Quốc,
Quản trị kinh doanh, Tài chính ngân hàng, Kế toán: Ngoại ngữ hệ số 2. VII.Điểm
chuẩn Trường ĐH Mở TP.HCM năm 2021 dựa vào kết quả học tập THPT(học bạ)
i.'
- source_sentence: Nguyên tắc xét tuyển của Trường được áp dụng như thế nào khi thí
sinh đăng ký nhiều nguyện vọng hoặc nhiều phương thức xét tuyển?
sentences:
- '4. Đối với phương thức kết hợp thi tuyển và xét tuyển
4.1. Thí sinh dự xét tuyển ngành Giáo dục Mầm non trình độ đại học
Phải tham gia kỳ thi năng khiếu do Trường Đại học Sư phạm Thành phố Hồ Chí Minh
tổ chức và có kết quả đạt từ 5,0 điểm trở lên;
Đối với thí sinh xét tuyển sử dụng kết quả thi tốt nghiệp THPT năm 2024: ngưỡng
điểm đảm bảo chất lượng đầu vào, điều kiện nhận hồ sơ đăng ký xét tuyển được thông
báo chính thức sau khi Bộ Giáo dục và Đào tạo xác định ngưỡng đảm bảo chất lượng
đầu vào đại học (căn cứ kết quả kỳ thi tốt nghiệp THPT năm 2024). Đối với thí
sinh xét tuyển sử dụng kết quả học tập THPT: chỉ áp dụng đối với thí sinh tốt
nghiệp THPT năm 2024 đồng thời phải thỏa một trong hai điều kiện sau:
+ Có học lực lớp 12 xếp loại giỏi;
+ Có điểm xét tốt nghiệp THPT từ 8,0 trở lên. 4.2. Thí sinh dự xét tuyển ngành
Giáo dục Mầm non trình độ cao đẳng
Phải tham gia kỳ thi năng khiếu do Trường Đại học Sư phạm Thành phố Hồ Chí Minh
tổ chức và có kết quả đạt từ 5,0 điểm trở lên;
Đối với thí sinh xét tuyển sử dụng kết quả thi tốt nghiệp THPT năm 2024: ngưỡng
điểm đảm bảo chất lượng đầu vào, điều kiện nhận hồ sơ đăng ký xét tuyển được thông
báo chính thức sau khi Bộ Giáo dục và Đào tạo xác định ngưỡng đảm bảo chất lượng
đầu vào đại học (căn cứ kết quả kỳ thi tốt nghiệp THPT năm 2024). Đối với thí
sinh xét tuyển sử dụng kết quả học tập THPT: chỉ áp dụng đối với thí sinh tốt
nghiệp THPT năm 2024 đồng thời phải thỏa một trong hai điều kiện sau:
+ Có học lực lớp 12 xếp loại khá;
+ Có điểm xét tốt nghiệp THPT từ 6,5 trở lên. 4.3. Thí sinh dự xét tuyển ngành
Giáo dục Thể chất
Phải tham gia kỳ thi năng khiếu do Trường Đại học Sư phạm Thành phố Hồ Chí Minh
tổ chức và có kết quả đạt từ 5,0 điểm trở lên;
Đối với thí sinh xét tuyển sử dụng điểm thi tốt nghiệp THPT năm 2024: ngưỡng điểm
đảm bảo chất lượng đầu vào, điều kiện nhận hồ sơ đăng ký xét tuyển được thông
báo chính thức sau khi Bộ Giáo dục và Đào tạo xác định ngưỡng đảm bảo chất lượng
đầu vào đại học (căn cứ kết quả kỳ thi tốt nghiệp THPT năm 2024);
Đối với thí sinh xét tuyển sử dụng kết quả học tập THPT: chỉ áp dụng đối với thí
sinh tốt nghiệp THPT năm 2024 đồng thời thỏa thêm một trong các điều kiện sau:
+ Có học lực lớp 12 xếp loại khá trở lên;
+ Có điểm xét tốt nghiệp THPT từ 6,5 trở lên;
+ Là vận động viên cấp 1, kiện tướng, vận động viên đã từng đoạt huy chương tại
Hội khỏe Phù Đổng, các giải trẻ quốc gia và quốc tế hoặc giải vô địch quốc gia
và quốc tế có điểm thi năng khiếu do trường tổ chức đạt loại xuất sắc (từ 9,0
trở lên theo thang điểm 10,0).'
- 'Danh mục các ngành điều kiện nộp hồ sơ xét tuyển (xem tại đây). Quy định chứng
chỉ tiếng Anh quốc tế tương đương (xem tại đây)
6. Xét tuyển thẳng, ưu tiên xét tuyển theo Quy chế của Bộ GD&ĐT – Mã phương thức
301: Thực hiện theo quy định của Bộ GD&ĐT
7. Các lưu ý khi đăng ký NVXT và nguyên tắc xét tuyển trên hệ thống Bộ
a. Các lưu ý khi đăng ký NVXT
Thí sinh nên tra cứu thông tin các nguyện vọng đăng ký xét tuyển vào TDTU theo
phương thức riêng tại: https://tracuuxettuyen.tdtu.edu.vn trước khi đăng ký nguyện
vọng lên hệ thống của Bộ GD&ĐT. Số CMND/CCCD thí sinh đã đăng ký xét tuyển trên
hệ thống của TDTU; đăng ký phương thức 4 trên hệ thống của Đại học Quốc gia TP.HCM
phải trùng khớp với số CMND/CCCD sử dụng đăng ký tài khoản trên hệ thống của Bộ
GD&ĐT. Trường hợp thí sinh đã đăng ký số CMND/CCCD không trùng khớp nhau giữa
các hệ thống trên, thí sinh phải liên hệ với TDTU để được hỗ trợ cập nhật lại
số CMND/CCCD cho trùng khớp với hệ thống của Bộ trước khi đăng ký nguyện vọng.
Thí sinh sẽ không đủ điều kiện xét tuyển nếu không sử dụng cùng 1 số CMND/CCCD
đăng ký giữa các hệ thống trên. Thí sinh xét tuyển vào chương trình đại học bằng
tiếng Anh, chương trình liên kết quốc tế nhưng không nộp chứng chỉ tiếng Anh theo
quy định, không dự thi năng lực tiếng Anh hoặc dự thi năng lực tiếng Anh kết quả
không đạt nếu đủ điểm trúng tuyển sẽ trúng tuyển vào chương trình dự bị tiếng
Anh. Khi thí sinh làm thủ tục nhập học, Nhà trường sẽ tổ chức cho thí sinh thi
đánh giá năng lực tiếng Anh. Nếu kết quả thi đánh giá năng lực của thí sinh đạt
trình độ tiếng Anh theo yêu cầu của chương trình (B1 đối với chương trình đại
học bằng tiếng Anh, B2 đối với chương trình liên kết đào tạo quốc tế) sẽ được
nhập học vào chương trình chính thức. Trường hợp chưa đạt năng lực tiếng Anh đầu
vào, thí sinh sẽ học chương trình dự bị tiếng Anh. b. Nguyên tắc xét tuyển
Nếu một NVXT của thí sinh đăng ký vào Trường có chọn nhiều căn cứ xét tuyển và
tương ứng có nhiều phương thức xét tuyển (Phương thức 1, 2, 3, 4) thì Trường sẽ
thực hiện việc xét tuyển theo thứ tự ưu tiên lần lượt của các phương thức như
sau: Phương thức 1, Phương thức 3, Phương thức 4, Phương thức 2. Thí sinh có nhiều
NVXT đủ điều kiện trúng tuyển thì chỉ được công nhận trúng tuyển và gọi nhập học
theo nguyện vọng cao nhất.'
- 'Thí sinh có thể dự thi cả 2 đợt thi năng khiếu để dùng điểm cao nhất của 2 đợt
thi xét tuyển (đợt thi 1 dự kiến ngày 15-17/08/2021; đợt thi 2 dự kiến ngày 17-20/8/2021).
TDTU không nhận điểm thi năng khiếu của các Trường khác chuyển sang. Xem chi tiết
thông báo thi năng khiếu tại https://admission.tdtu.edu.vn
+ Thí sinh thuộc đối tượng 2- đợt 2 xét tuyển vào chương trình đại học bằng tiếng
Anh phải có Chứng chỉ tiếng Anh quốc tế tương đương IELTS 5.0 trở lên (còn thời
hạn trong vòng 2 năm tính đến ngày 01/10/2021); Thí sinh không có chứng chỉ tiếng
Anh quốc tế tương đương IELTS 5.0 trở lên còn thời hạn theo quy định của TDTU
phải đăng ký dự thi Năng lực tiếng Anh do TDTU tổ chức (trừ ngành Ngôn ngữ Anh
chỉ nhận chứng chỉ tiếng Anh quốc tế theo quy định) tại website: https://thinangkhieu.tdtu.edu.vn.'
- source_sentence: Những đối tượng nào có thể đăng ký xét tuyển vào Đại học Sư phạm
Kỹ thuật TP.HCM và cần đáp ứng các điều kiện gì?
sentences:
- 'Hồ Chí Minh được thành lập theo Quyết định số 1485/GD-ĐT. Cơ sở vật chất
Địa chỉ: Số 15, Đường D5, Phường 25, Quận Bình Thạnh, TP. Hồ Chí Minh. Ban đầu,
do chưa có cơ sở vật chất riêng, Cơ sở II phải thuê cơ sở của Trường Cao đẳng
Kinh tế Đối ngoại. Qua thời gian, trường đã xây dựng được cơ sở mới đáp ứng nhu
cầu giảng dạy và học tập. Diện tích khuôn viên: Gần 5.000 m². Khu vực giảng dạy
chính: Sảnh A và sảnh B, đồng thời là nơi đặt trụ sở Ban Giám hiệu và các khoa,
phòng ban quản lý. Trang thiết bị: Nhiều phòng học và phòng chức năng được trang
bị hiện đại. Ngoài ra, trong khuôn viên còn có phân viện VJCC cơ sở TP. Hồ Chí
Minh, được hỗ trợ xây dựng bởi nguồn vốn từ Chính phủ Nhật Bản, tương tự như phân
viện tại Hà Nội. Cơ cấu tổ chức và đội ngũ cán bộ, giáo viên
Trong thời gian đầu mới thành lập, Cơ sở II chỉ có 02 cán bộ, và hầu hết các hoạt
động được chỉ đạo trực tiếp từ Cơ sở I tại Hà Nội. Tuy nhiên, với quy mô đào tạo
ngày càng tăng, Cơ sở II đã nhanh chóng củng cố cơ cấu tổ chức và đội ngũ cán
bộ, giáo viên. Hiện tại, Cơ sở II có hơn 100 cán bộ, giáo viên cơ hữu, công tác
tại 11 Ban và 05 Bộ môn. Các Ban
Ban Tổ chức - Hành chính
Ban Kế hoạch - Tài chính
Ban Quản lý đào tạo
Ban Công tác chính trị & Sinh viên
Ban Đào tạo quốc tế
Ban Quản trị thiết bị
Ban Quản lý Khoa học & Hợp tác quốc tế
Ban Khảo thí & Đảm bảo chất lượng
Ban Truyền thông & Quan hệ đối ngoại
Ban Thư viện
Ban Công tác Đảng & Đoàn thể
Các Bộ môn
Bộ môn Khoa học cơ bản
Bộ môn Kinh doanh & Thương mại quốc tế
Bộ môn Ngoại ngữ
Bộ môn Kinh tế - Luật
Bộ môn Quản trị kinh doanh & Tài chính - Kế toán'
- 'THÔNG TIN TUYỂN SINH Đại học Sư phạm Kỹ thuật TP.HCM
. Thông tin chung
1. Thời gian xét tuyển
Theo lịch tuyển sinh chung của Bộ GD&ĐT và kế hoạch tuyển sinh của trường công
bố cụ thể trên website. 2. Đối tượng tuyển sinh
Thí sinh đã tốt nghiệp THPT. 3. Phạm vi tuyển sinh
Tuyển sinh trong cả nước. 4. Phương thức tuyển sinh
4.1. Phương thức xét tuyển
Phương thức 1: Xét tuyển học bạ THPT. Phương thức 2: Xét tuyển thí sinh theo kết
quả điểm thi tốt nghiệp THPT năm 2024 theo các tổ hợp môn xét tuyển từng ngành
học. Phương thức 3: Xét tuyển thẳng, ưu tiên xét tuyển thẳng. 4.2. Ngưỡng đảm
bảo chất lượng đầu vào, điều kiện nhận ĐKXT
Phương thức xét tuyển bằng điểm thi THPT 2024: thí sinh phải tốt nghiệp THPT và
thỏa điều kiện ngưỡng đảm bảo chất lượng đầu vào của Trường. Thông báo ngưỡng
đảm bảo sau khi thí sinh có kết quả thi THPT. Phương thức xét tuyển bằng học bạ
THPT tốt nghiệp (tốt nghiệp THPT 2024): thí sinh tốt nghiệp THPT và điểm trung
bình học bạ mỗi môn học theo tổ hợp đăng ký xét tuyển từ 5,0 trở lên. Hồi đồng
thi tuyển uy quyền cho những thành viên thường trực Hội đồng tuyển sinh quyết
định điểm trúng tuyển các phương thức xét. Điềm chuẩn ngành Sư phạm tiếng Anh
theo các phương thức xét tuyển sớm sẽ được điều chỉnh khi có chỉ tiêu được giao
của Bộ GD&ĐT. 4.3.'
- '4. CÁC NGÀNH ĐÀO TẠO
a. ĐẠI HỌC
Cử nhân Sư phạm Tin học
Cử nhân Công nghệ Thông tin
b. SAU ĐẠI HỌC
Thạc sĩ Khoa học máy tính
vii. Khoa Vật lý
1. CHẤT LƯỢNG ĐÀO TẠO
ĐÀO TẠO CỬ NHÂN (4 NĂM)
CN Sư phạm Vật lý, CN Vật lý học
CN Sư phạm Công nghệ
TUYỂN SINH: 100 - 150 SV
ĐÀO TẠO CAO HỌC (2 NĂM)
Bắt đầu đào tạo Thạc sĩ từ 1999
ThS Lý luận và phương pháp dạy học bộ môn Vật lý
ThS Vật Lý Nguyên tử và hạt nhân
TUYỂN SINH: 15 - 25 HV/năm
2. CHẤT LƯỢNG GIẢNG VIÊN
ĐỘI NGŨ GIẢNG VIÊN: 35
Giảng viên: 35
Giáo sư : 1
Phó Giáo sư Tiến sĩ: 4
Tiến sĩ: 17
Thạc sĩ: 10
Cử nhân: 3
3. MỤC TIÊU ĐÀO TẠO
Đào tạo cử nhân Vật lý học, có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu
và vận dụng các tri thức cơ bản của Vật lý học theo định hướng chuyên ngành. Sau
khi tốt nghiệp, người học có đủ năng lực để làm việc trong môi trường nghiên cứu,
sản xuất kinh doanh có sử dụng kiến thức Vật lý học cũng như có thể tiếp tục theo
các bậc học cao hơn. Đào tạo giáo viên có trình độ cử nhân Sư phạm Vật lý (hệ
chính quy, chính quy địa phương, hệ chuyên tu, tại chức). Sau khi tốt nghiệp,
người học có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các
tri thức cơ bản của Vật lý học, lý luận và phương pháp giảng dạy Vật lý ở trường
trung học. Đào tạo giáo viên dạy Công nghệ bậc Trung học cơ sở và Trung học phổ
thông. Sau khi tốt nghiệp, người học có phẩm chất chính trị, đạo đức và sức khỏe
tốt, hiểu và vận dụng các tri thức khoa học, công nghệ nền tảng vào trong dạy
học môn Công nghệ ở trường phổ thông. Sau khi tốt nghiệp, người học có đủ năng
lực để làm việc trong môi trường nghiên cứu, sản xuất kinh doanh có sử dụng kiến
thức khoa học, công nghệ cũng như có thể tiếp tục theo các bậc học cao hơn.'
- source_sentence: Quá trình hình thành và phát triển của Đại học Kinh tế Thành phố
Hồ Chí Minh diễn ra như thế nào?
sentences:
- '1. Điểm trúng tuyển
Phương thức xét tuyển theo kết quả học tập THPT – Đợt 2 (PT1-Đ2), ưu tiên xét
tuyển theo quy định của TDTU dành cho học sinh trường chuyên trên cả nước và một
số trường trọng điểm ở TP.HCM – Đợt 2 (PT3-ĐT1-Đ2); ưu tiên xét tuyển theo quy
định của TDTU dành cho học sinh có chứng chỉ tiếng Anh quốc tế tương đương IELTS
5.0 trở lên – Đợt 2 (PT3-ĐT2-Đ2): Điểm xét tuyển được thực hiện theo đúng đề án
tuyển sinh đại học năm 2022, thang điểm 40 và được làm tròn đến 02 chữ số thập
phân (đã bao gồm điểm ưu tiên khu vực, đối tượng, hệ số trường THPT, điểm ưu tiên
thành tích học sinh giỏi). Phương thức xét tuyển theo điểm thi THPT năm 2022 (PT2):
Điểm xét tuyển được thực hiện theo đúng đề án tuyển sinh đại học năm 2022, là
tổng điểm của 3 môn theo tổ hợp (có nhân hệ số môn theo tổ hợp, ngành xét
tuyển theo thang điểm 40), cộng với điểm ưu tiên khu vực, đối tượng theo thang
điểm 40 (nếu có), được làm tròn đến 2 chữ số thập phân theo quy định của Bộ GD&ĐT.
Phương thức xét tuyển theo điểm thi đánh giá năng lực của Đại học Quốc gia TP.HCM
năm 2022 (PT5): Điểm xét tuyển được thực hiện theo đúng đề án tuyển sinh đại học
năm 2022 theo thang điểm 1200 (đã bao gồm điểm ưu tiên khu vực, đối tượng theo
thang điểm 1200)
Phương thức xét tuyển theo kết quả học tập THPT -Đợt 1 (PT1-Đ1) và ưu tiên xét
tuyển theo quy định của TDTU đợt 1 (PT3-Đ1), điểm trúng tuyển theo thông báo Kết
quả sơ tuyển PT1, PT3-ĐT1 các ngành trình độ đại học chính quy 2022-Đợt 1 ngày
30/6/2022 của HĐTS Trường. Bảng điểm trúng tuyển theo các phương thức như sau:
Here''s the updated table based on your additional data. I''ve kept the structure
consistent, with the text "HHMT≥6.0" moved to the "Điểm TT PT5" column where relevant:
STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2
Điểm TT PT5 Chương trình tiêu chuẩn 1 7210402 Thiết kế công nghiệp 26.5 23 30
650 HHMT≥6.0 2 7210403 Thiết kế đồ họa 29.5 27 32 700 HHMT≥6.0 3 7210404 Thiết
kế thời trang 26.5 24 30 650 HHMT≥6.0 4 7220201 Ngôn ngữ Anh 37 34 36 800 5 7220204
Ngôn ngữ Trung Quốc 37 33 35 800 6 7310301 Xã hội học 31.5 28.5 31 650 7 7310630
Việt Nam học (Chuyên ngành: Du lịch và lữ hành) 34 31.8 33 700 8 7310630Q Việt
Nam học (Chuyên ngành: Du lịch và quản lý du lịch) 34 31.8 33 700 9 7340101 Quản
trị kinh doanh (Chuyên ngành: Quản trị nguồn nhân lực) 37 33.6 36 800 10 7340101N
Quản trị kinh doanh (Chuyên ngành: Quản trị nhà hàng - khách sạn) 35.75 30.5 35
800 11 7340115 Marketing 37.75 34.8 37 870 12 7340120 Kinh doanh quốc tế 37.5
34.5 37 870 13 7340201 Tài chính - Ngân hàng 36.75 33.6 35.25 750 14 7340301 Kế
toán 36 33.3 34.25 720 15 7340408 Quan hệ lao động (Chuyên ngành Quản lý Quan
hệ lao động, Chuyên ngành Hành vi tổ chức) 28 27 31 700 16 7380101 Luật 36.5 33.5
35.5 720 17 7420201 Công nghệ sinh học 33.5 26.5 32 680 18 7440301 Khoa học môi
trường 26 22 31 650 19 7460112 Toán ứng dụng 31.5 31.1 31 680 20 7460201 Thống
kê 28 29.1 31 680 21 7480101 Khoa học máy tính 38 35 35 850 22 7480102 Mạng máy
tính và truyền thông dữ liệu 36.25 34.5 32.5 800 23 7480103 Kỹ thuật phần mềm
38 35.4 35.5 850 24 7510406 Công nghệ kỹ thuật môi trường (Chuyên ngành Cấp thoát
nước và môi trường nước) 26 22 30 650 25 7520114 Kỹ thuật cơ điện tử 33 28.5 32
680 26 7520201 Kỹ thuật điện 31 27.5 32 650 27 7520207 Kỹ thuật điện tử - viễn
thông 31 29.5 32 650 28 7520216 Kỹ thuật điều khiển và tự động hóa 33 31.7 32
680 29 7520301 Kỹ thuật hóa học 34 28.5 32 680 30 7580101 Kiến trúc 28 26 32 680
HHMT≥6.0 31 7580105 Quy hoạch vùng và đô thị 27 23 30 650 32 7580108 Thiết kế
nội thất 27 24 32 650 HHMT≥6.0 33 7580201 Kỹ thuật xây dựng 29 25 32 650 34 7580205
Kỹ thuật xây dựng công trình giao thông 27 23 30 650 35 7720201 Dược học 36 HSG
lớp 12 33.2 HSG lớp 12 800 HSG lớp 12 36 7760101 Công tác xã hội 27 25.3 30 650
37 7810301 Quản lý thể dục thể thao (Chuyên ngành kinh doanh thể thao và tổ chức
sự kiện) 31.5 27 30 650 38 7810302 Golf 27 23 30 650 39 7850201 Bảo hộ lao động
27 23 30 650 CHƯƠNG TRÌNH CHẤT LƯỢNG CAO 1 F7210403 Thiết kế đồ họa - Chương
trình Chất lượng cao 26.5 23 30 650 HHMT≥6.0 2 F7220201 Ngôn ngữ Anh – Chương
trình Chất lượng cao 34 29.9 32 700 3 F7310630Q Việt Nam học (Chuyên ngành Du
lịch và Quản lý du lịch) - Chương trình Chất lượng cao 27 27 32 650 4 F7340101
Quản trị kinh doanh (Chuyên ngành: Quản trị nguồn nhân lực) - Chương trình Chất
lượng cao 35.5 32.7 33 700 5 F7340101N Quản trị kinh doanh (Chuyên ngành: Quản
trị nhà hàng - khách sạn) - Chương trình Chất lượng cao 33 29.1 32 700 6 F7340115
Marketing - Chương trình Chất lượng cao 36 33.5 35 750 7 F7340120 Kinh doanh quốc
tế - Chương trình Chất lượng cao 36.5 32.8 36 750 8 F7340201 Tài chính - Ngân
hàng - Chương trình Chất lượng cao 33 30.1 32 700 9 F7340301 Kế toán - Chương
trình Chất lượng cao 31 29.2 32 650 10 F7380101 Luật - Chương trình Chất lượng
cao 32 32.1 32 650 11 F7420201 Công nghệ sinh học - Chương trình Chất lượng cao
27 22 30 650 12 F7480101 Khoa học máy tính - Chương trình Chất lượng cao 36.25
34.5 32 800 13 F7480103 Kỹ thuật phần mềm - Chương trình Chất lượng cao 36.25
34.5 32 800 14 F7520201 Kỹ thuật điện - Chương trình Chất lượng cao 27 22 30 650
15 F7520207 Kỹ thuật điện tử - viễn thông - Chương trình Chất lượng cao 27 22
30 650 16 F7520216 Kỹ thuật điều khiển và tự động hóa - Chương trình Chất lượng
cao 27 25 30 650 17 F7580201 Kỹ thuật xây dựng - Chương trình Chất lượng cao 27
22 30 650 CHƯƠNG TRÌNH ĐẠI HỌC BẰNG TIẾNG ANH
Yêu cầu về tiếng Anh đầu vào:
Thí sinh nước ngoài ở các nước có ngôn ngữ chính là tiếng Anh không yêu cầu Chứng
chỉ tiếng Anh đầu vào quốc tế;
Thí sinh Việt Nam và thí sinh ở các nước không có ngôn ngữ chính là tiếng Anh:
phải có Chứng chỉ IELTS 5.0 trở lên hoặc tương đương (có giá trị từ ngày 01/10/2020
và còn giá trị đến ngày 01/10/2022); hoặc phải dự thi đánh giá năng lực tiếng
Anh bằng Hệ thống đánh giá năng lực tiếng Anh theo chuẩn quốc tế của TDTU để được
xác nhận đủ điều kiện tiếng Anh theo học chương trình (trừ Ngành ngôn ngữ Anh
phải có chứng chỉ tiếng Anh quốc tế tương đương IELTS 5.0 trở lên theo quy định).
Trường hợp số lượng học viên nhập học đủ điều kiện học chính thức ít hơn sĩ số
tối thiểu để mở lớp, người học được tư vấn để bảo lưu kết quả tuyển sinh, hoặc
chuyển qua các ngành/chương trình khác (nếu đáp ứng được tiêu chí tuyển đầu vào
của ngành/chương trình đó). Chương trình đại học bằng tiếng Anh:
STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2
Điểm TT PT5 1 FA7220201 Ngôn ngữ Anh – Chương trình đại học bằng tiếng Anh 32
25 30 34.5 700 2 FA7310630Q Việt Nam học (Chuyên ngành Du lịch và Quản lý du lịch)
- Chương trình đại học bằng tiếng Anh 28 24 28 28 650 3 FA7340101N Quản trị kinh
doanh (Chuyên ngành: Quản trị nhà hàng - khách sạn) - Chương trình đại học bằng
tiếng Anh 30 27 30 30 650 4 FA7340115 Marketing - Chương trình đại học bằng tiếng
Anh 34 27 32 36 700 5 FA7340120 Kinh doanh quốc tế - Chương trình đại học bằng
tiếng Anh 34 27 32 36 700 6 FA7340201 Tài chính ngân hàng - Chương trình đại học
bằng tiếng Anh 28 24 28 28 650 7 FA7340301 Kế toán (Chuyên ngành: Kế toán quốc
tế) - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 8 FA7420201 Công nghệ
sinh học - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 9 FA7480101 Khoa
học máy tính - Chương trình đại học bằng tiếng Anh 30 24 30 30 650 10 FA7480103
Kỹ thuật phần mềm - Chương trình đại học bằng tiếng Anh 30 24 30 30 650 11 FA7520216
Kỹ thuật điều khiển và tự động hóa - Chương trình đại học bằng tiếng Anh 28 24
28 28 650 12 FA7580201 Kỹ thuật xây dựng - Chương trình đại học bằng tiếng Anh
28 24 28 28 650
Chương trình học tại Phân hiệu Khánh Hòa:
STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2
Điểm TT PT5 1 N7220201 Ngôn ngữ Anh - Chương trình học Phân hiệu Khánh Hòa 28
24 31 650 2 N7310630 Việt Nam học (Chuyên ngành: Du lịch và lữ hành) - Chương
trình học Phân hiệu Khánh Hòa 27 22 30 650 3 N7340101N Quản trị kinh doanh, Chuyên
ngành: Quản trị nhà hàng - khách sạn - Chương trình học Phân hiệu Khánh Hòa 29
24 31 650 4 N7340115 Marketing - Chương trình học Phân hiệu Khánh Hòa 29 24 31
650 5 N7340301 Kế toán - Chương trình học Phân hiệu Khánh Hòa 27 22 30 650 6 N7380101
Luật - Chương trình học Phân hiệu Khánh Hòa 27 22 30 650 7 N7480103 Kỹ thuật phần
mềm - Chương trình học Phân hiệu Khánh Hòa 27 22 31 650 CHƯƠNG TRÌNH LIÊN KẾT
QUỐC TẾ
Yêu cầu về tiếng Anh đầu vào:
Thí sinh phải đạt trình độ tiếng Anh đầu vào từ B2 trở lên hoặc tương đương để
được công nhận trúng tuyển vào chương trình chính thức.Thí sinh có thể nộp chứng
chỉ IELTS 5.5 hoặc các chứng chỉ quốc tế tương đương để xét tiếng Anh đầu vào;
hoặc phải dự thi đánh giá năng lực tiếng Anh đầu khóa bằng Hệ thống đánh giá năng
lực tiếng Anh theo chuẩn quốc tế của TDTU để được xác nhận đủ điều kiện tiếng
Anh theo học chương trình. Ngoại lệ:
Nếu tiếng Anh chưa đạt chuẩn B2, nhưng người học vẫn muốn học chương trình liên
kết đào tạo quốc tế, thì được xét vào chương trình dự bị tiếng Anh (liên kết quốc
tế) và phải tham gia học bổ túc tiếng Anh tại TDTU cho đến khi đạt trình độ tương
đương chuẩn nói trên để được “quyết định nhập học và công nhận là sinh viên”.
Thời gian học tiếng Anh tối đa là 2 năm và tùy năng lực đầu vào qua kết quả đánh
giá đầu vào xếp lớp của TDTU. Sau thời gian học chương trình dự bị tiếng Anh,
nếu vẫn chưa đạt chuẩn tiếng Anh trình độ B2 hoặc tương đương; người học phải
thôi học hoặc có thể xin chuyển sang các chương trình khác (nếu vẫn bảo đảm được
các tiêu chí tuyển sinh đầu vào tương ứng của các ngành/chương trình này theo
đúng năm tuyển sinh ). Trường hợp số lượng học viên nhập học đủ điều kiện học
chính thức ít hơn sĩ số tối thiểu để mở lớp, người học được tư vấn để bảo lưu
kết quả tuyển sinh, hoặc chuyển qua các ngành/chương trình khác (nếu đáp ứng được
tiêu chí tuyển đầu vào của ngành/chương trình đó). STT Mã ngành Tên ngành Điểm
TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2 Điểm TT PT5 1 K7340101
Quản trị kinh doanh (song bằng, 2+2) - Chương trình liên kết Đại học Kinh tế Praha
(Cộng hòa Séc) 28 24 28 28 650 2 K7340101N Quản trị nhà hàng khách sạn (song bằng,
2.5+1.5) - Chương trình liên kết Đại học Taylor''s (Malaysia) 28 24 28 28 650
3 K7340120 Quản trị kinh doanh quốc tế (đơn bằng, 3+1) - Chương trình liên kết
Đại học Khoa học và công nghệ Lunghwa (Đài Loan) 28 24 28 28 650 4 K7340201 Tài
chính (song bằng, 2+2) - Chương trình liên kết Đại học Feng Chia (Đài Loan) 28
24 28 28 650 5 K7340201S Tài chính (đơn bằng, 3+1) - Chương trình liên kết Đại
học Khoa học và công nghệ Lunghwa (Đài Loan) 28 24 28 28 650 6 K7340201X Tài chính
và kiểm soát (song bằng, 3+1) - Chương trình liên kết Đại học Khoa học ứng dụng
Saxion (Hà Lan) 28 24 28 28 650 7 K7340301 Kế toán (song bằng, 3+1) - Chương trình
liên kết Đại học West of England, Bristol (Anh) 28 24 28 28 650 8 K7480101 Khoa
học máy tính & Công nghệ tin học (đơn bằng, 2+2) - Chương trình liên kết Đại học
Khoa học và công nghệ Lunghwa (Đài Loan) 28 24 28 28 650 9 K7480101L Công nghệ
thông tin (song bằng, 2+2) - Chương trình liên kết Đại học La Trobe (Úc) 28 24
28 28 650 10 K7520201 Kỹ thuật điện – điện tử (song bằng, 2.5+1.5) - Chương trình
liên kết Đại học Khoa học ứng dụng Saxion (Hà Lan) 28 24 28 28 650 11 K7580201
Kỹ thuật xây dựng (song bằng, 2+2) - Chương trình liên kết Đại học La Trobe (Úc)
28 24 28 28 650 Đính kèm phụ lục điểm trúng tuyển chi tiết theo từng phương thức
Phụ lục điểm trúng tuyển chi tiết phương thức 1-đợt 2 (tại đây)
Phụ lục điểm trúng tuyển chi tiết phương thức 2 (tại đây)
Phụ lục điểm trúng tuyển chi tiết phương thức 3-đợt 2 (tại đây)
Thí sinh tra cứu kết quả trúng tuyển từ 17h ngày 17/9/2022 tại website https://tracuuxettuyen.tdtu.edu.vn
Lưu ý: Thí sinh đủ điểm trúng tuyển của TDTU công bố nhưng không có trong danh
sách trúng tuyển chính thức có thể do thí sinh đã đăng ký không chính xác nguyện
vọng trên hệ thống Bộ GD&ĐT hoặc đã trúng tuyển ở nguyện vọng khác có thứ tự ưu
tiên cao hơn.'
- 'Đại học Kinh tế Thành phố Hồ Chí Minh (UEH)
Đại học Kinh tế Thành phố Hồ Chí Minh (tiếng Anh: University of Economics Ho Chi
Minh City – UEH), còn được gọi là Đại học UEH, là một đại học công lập đa ngành
trực thuộc Bộ Giáo dục và Đào tạo. UEH nằm trong nhóm các trường đại học trọng
điểm quốc gia, dẫn đầu trong đào tạo khối ngành kinh tế tại Việt Nam. UEH không
chỉ là một trụ cột quan trọng trong hệ thống giáo dục bậc cao mà còn là trung
tâm nghiên cứu các chính sách kinh tế và quản lý cho chính phủ cùng các doanh
nghiệp lớn. UEH đã đào tạo nhiều lãnh đạo cấp cao cho các tập đoàn đa quốc gia
nổi tiếng trong và ngoài nước. Lịch sử hình thành và phát triển
1976: Thành lập với tên gọi Trường Đại học Kinh tế trực thuộc Bộ Đại học và Trung
học chuyên nghiệp. 1996: Sáp nhập với hai đơn vị khác, trở thành Trường Đại học
Kinh tế trực thuộc Đại học Quốc gia Thành phố Hồ Chí Minh. 2000: Tách ra khỏi
Đại học Quốc gia Thành phố Hồ Chí Minh, trở thành Trường Đại học Kinh tế Thành
phố Hồ Chí Minh trực thuộc Bộ Giáo dục và Đào tạo. 2021: Tái cấu trúc, thành lập
các trường thành viên và định hướng phát triển thành đại học đa ngành, đa lĩnh
vực. 2023: Chính thức chuyển đổi thành Đại học Kinh tế Thành phố Hồ Chí Minh.
Cơ sở vật chất và hoạt động
Hiện nay, UEH sở hữu: - 10 cơ sở giảng dạy tại Thành phố Hồ Chí Minh.'
- '4. CÁC NGÀNH ĐÀO TẠO
a. ĐẠI HỌC
Cử nhân Sư phạm Toán học (Hệ Chính quy, Hệ Vừa làm vừa học)
b.SAU ĐẠI HỌC
Thạc sĩ Toán giải tích
Thạc sĩ Đại số và Lý thuyết số
Thạc sĩ Hình học và Tôpô
Thạc sĩ Lý luận và Phương pháp dạy học bộ môn Toán
Tiến sĩ Toán Giải tích
Tiến sĩ Hình học và Tôpô
Tiến sĩ Lý luận và Phương pháp dạy học bộ môn Toán
c. BỒI DƯỠNG
Chuyên đề bồi dưỡng cho giáo viên tiểu học, trung học cơ sở và trung học phổ thông
về phương pháp, kĩ thuật dạy học, nội dung dạy học, kiểm tra, đánh giá, ứng dụng
công nghệ thông tin trong dạy học,…
vi. Khoa Công nghệ Thông tin
1. CHẤT LƯỢNG ĐÀO TẠO
ĐÀO TẠO CỬ NHÂN (4 NĂM)
Sư phạm Tin học: 90 – 100 SV/năm
Công nghệ Thông tin: 180 – 200 SV/năm
ĐÀO TẠO CAO HỌC (2 NĂM)
Thạc sĩ Khoa học máy tính: 15-35 HV/ năm
2. CHẤT LƯỢNG GIẢNG VIÊN
ĐỘI NGŨ GIẢNG VIÊN: 24
Tiến sĩ: 9
Thạc sĩ: 15
3. MỤC TIÊU ĐÀO TẠO
Đào tạo giáo viên dạy Tin học bậc phổ thông có trình độ cử nhân Sư phạm Tin học,
có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các tri thức
cơ bản của Tin học; Lý luận và phương pháp giảng dạy Tin học ở trường trung học,
tiểu học. Sau khi tốt nghiệp, người học có đủ năng lực để giảng dạy Tin học tại
các trường trung học, tiểu học và một số cơ sở giáo dục tương đương. Đào tạo cử
nhân Công nghệ thông tin, có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu
và vận dụng các tri thức cơ bản về khoa học máy tính. Sau khi tốt nghiệp, người
học có đủ năng lực để làm việc trong môi trường các cơ sở sản xuất, các viện hoặc
trung tâm nghiên cứu trong lĩnh vực Công nghệ thông tin cũng như có thể tiếp tục
theo các bậc học cao hơn.'
- source_sentence: Xin hãy liệt kê các trung tâm của Trường Đại học Sư phạm Kỹ thuật
TP. Hồ Chí Minh.
sentences:
- 'Nếu có thắc mắc thí sinh vui lòng liên hệ số điện thoại hỗ trợ tuyển sinh: 19002024'
- 'Thực hiện hướng dẫn của Bộ Giáo dục và Đào tạo tại Công văn số 1919/BGDĐT-GDĐH
ngày 28 tháng 4 năm 2023, phương thức xét tuyển kết quả điểm thi tốt nghiệp Trung
học phổ thông vẫn được giữ nguyên như năm 2022. Tổ hợp môn xét tuyển: B00 (Toán
– Hóa – Sinh) chung cho tất cả các ngành. năm 2022, Trường Đại học Y khoa Phạm
Ngọc Thạch tuyển được 1.367 chỉ tiêu (đạt 104,4% so với chỉ tiêu đề ra). chỉ tiêu
tuyển sinh đại học chính quy của Trường Đại học Y khoa Phạm Ngọc Thạch năm 2023.
1. Y khoa: 660 2. Dược học: 90 3. Điều dưỡng: 250 4. Dinh dưỡng: 60 5. Răng Hàm
Mặt: 90 6. Kỹ thuật xét nghiệm y học: 50 7. Kỹ thuật hình ảnh y học: 40 8. Kỹ
thuật phục hồi chức năng: 30 9. Khúc xạ nhãn khoa: 40 10. Y tế công cộng: 56
Ghi chú: chỉ tiêu được chia cho các thí sinh có hộ khẩu ở TP HCM và ngoài TP HCM
với tỉ lệ 50%
Điểm chuẩn của trường Đại học Y khoa Phạm Ngọc Thạch 2023: Y khoa, Điểm chuẩn
thí sinh có hộ khẩu tại TP HCM(TP): 25,90, Điểm chuẩn thí sinh có hộ khẩu ngoài
TP HCM(TQ): 26.31 Dược học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,28,
Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 25,25 Điều dưỡng, Điểm chuẩn
thí sinh có hộ khẩu tại TP HCM(TP): 22,40, Điểm chuẩn thí sinh có hộ khẩu ngoài
TP HCM(TQ): 22,40 Dinh dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,25,
Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,80 Răng - Hàm - Mặt, Điểm
chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 26,00, Điểm chuẩn thí sinh có hộ khẩu
ngoài TP HCM(TQ): 26,28 Kỹ thuật Xét nghiệm Y học, Điểm chuẩn thí sinh có hộ khẩu
tại TP HCM(TP): 24,54, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 24,47
Kỹ thuật Hình ảnh Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,45,
Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,61 Khúc xạ nhãn khoa, Điểm
chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,75, Điểm chuẩn thí sinh có hộ khẩu
ngoài TP HCM(TQ): 23,75 Y tế công cộng, Điểm chuẩn thí sinh có hộ khẩu tại TP
HCM(TP): 18,85, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 18,35 Kỹ thuật
Phục hồi chức năng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,15, Điểm
chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,09'
- 'Phòng Đào tạo
2. Phòng Đào tạo không chính quy
3. Phòng Tuyển sinh và Công tác Sinh viên
4. Phòng Truyền thông
5. Phòng Khoa học Công nghệ - Quan hệ Quốc tế
6. Phòng Quan hệ Doanh nghiệp
7. Phòng Thanh tra - Giáo dục
8. Phòng Đảm bảo Chất lượng
9. Phòng Tổ chức - Hành chính
10. Phòng Kế hoạch - Tài chính
11. Phòng Quản trị Cơ sở Vật chất
12. Phòng Thiết bị - Vật tư
13. Ban quản lý KTX
14. Trạm Y tế
15. Bộ phận Quản lý Hồ sơ Dự án
C. Danh sách các trung tâm của Trường Đại học Sư phạm Kỹ thuật Thành phố Hồ Chí
Minh:
1. Ngoại ngữ
2. Tin học
3. Thư viện
4. Hợp tác Đào tạo Quốc tế
5. Việt – Đức
6. Dịch vụ Sinh viên
7. Thông tin – Máy tính
8. Dạy học số
9. Kỹ thuật Tổng hợp
10. Chế tạo và Thiết kế Thiết bị Công nghiệp
11. Đào tạo và hướng nghiệp quốc tế Việt Nhật
12. Đào tạo ngắn hạn
13. Giáo dục Thể chất - Quốc phòng
14. Đào tạo Bồi dưỡng giáo viên phổ thông, giáo dục nghề nghiệp miền Trung - Tây
Nguyên
15. Nghiên cứu và Ứng dụng Kỹ thuật Xây dựng
16. Bồi dưỡng và Đánh giá kỹ năng nghề Quốc gia
17. Phát triển ngôn ngữ
18. Nghiên cứu và Chuyển giao Công nghệ
19. Công nghệ phần mềm
20. Hàn ngữ học Dong A
21. Sáng tạo và Khởi nghiệp
22. Trung tâm hướng nghiệp và đào tạo Việt Nhật
D. Các ngành đào tạo trình độ đại học
Đi cùng với sự vận động và phát triển của nền kinh tế đất nước theo hướng công
nghiệp hóa, hiện đại hóa, Trường Đại học Sư phạm Kỹ thuật Tp. Hồ Chí Minh đã tiếp
cận thực tế để mở rộng đào tạo gần 30 ngành đào tạo trình độ đại học
i.'
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- cosine_accuracy@1
- cosine_accuracy@3
- cosine_accuracy@5
- cosine_accuracy@10
- cosine_precision@1
- cosine_precision@3
- cosine_precision@5
- cosine_precision@10
- cosine_recall@1
- cosine_recall@3
- cosine_recall@5
- cosine_recall@10
- cosine_ndcg@10
- cosine_mrr@10
- cosine_map@100
model-index:
- name: SentenceTransformer based on dangvantuan/vietnamese-document-embedding
results:
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 768
type: dim_768
metrics:
- type: cosine_accuracy@1
value: 0.6759510869565217
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.9001358695652174
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.9483695652173914
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.985733695652174
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.6759510869565217
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.30004528985507245
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.18967391304347825
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.09857336956521738
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.6759510869565217
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.9001358695652174
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.9483695652173914
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.985733695652174
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.8420877438453158
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.794684912008282
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.7957360881986503
name: Cosine Map@100
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 512
type: dim_512
metrics:
- type: cosine_accuracy@1
value: 0.6827445652173914
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.9137228260869565
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.9565217391304348
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.9898097826086957
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.6827445652173914
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.30457427536231885
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.19130434782608693
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.09898097826086956
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.6827445652173914
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.9137228260869565
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.9565217391304348
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.9898097826086957
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.848423953670157
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.8016792292098005
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.8024031231126366
name: Cosine Map@100
- task:
type: information-retrieval
name: Information Retrieval
dataset:
name: dim 256
type: dim_256
metrics:
- type: cosine_accuracy@1
value: 0.6813858695652174
name: Cosine Accuracy@1
- type: cosine_accuracy@3
value: 0.9157608695652174
name: Cosine Accuracy@3
- type: cosine_accuracy@5
value: 0.9599184782608695
name: Cosine Accuracy@5
- type: cosine_accuracy@10
value: 0.9891304347826086
name: Cosine Accuracy@10
- type: cosine_precision@1
value: 0.6813858695652174
name: Cosine Precision@1
- type: cosine_precision@3
value: 0.3052536231884058
name: Cosine Precision@3
- type: cosine_precision@5
value: 0.19198369565217388
name: Cosine Precision@5
- type: cosine_precision@10
value: 0.09891304347826084
name: Cosine Precision@10
- type: cosine_recall@1
value: 0.6813858695652174
name: Cosine Recall@1
- type: cosine_recall@3
value: 0.9157608695652174
name: Cosine Recall@3
- type: cosine_recall@5
value: 0.9599184782608695
name: Cosine Recall@5
- type: cosine_recall@10
value: 0.9891304347826086
name: Cosine Recall@10
- type: cosine_ndcg@10
value: 0.848428744710359
name: Cosine Ndcg@10
- type: cosine_mrr@10
value: 0.8016997174775718
name: Cosine Mrr@10
- type: cosine_map@100
value: 0.8024753262882551
name: Cosine Map@100
---
# SentenceTransformer based on dangvantuan/vietnamese-document-embedding
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [dangvantuan/vietnamese-document-embedding](https://huggingface.co/dangvantuan/vietnamese-document-embedding). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [dangvantuan/vietnamese-document-embedding](https://huggingface.co/dangvantuan/vietnamese-document-embedding) <!-- at revision 6fa4e2f8ed2d33120b0f4442cc81f8f973c3f56b -->
- **Maximum Sequence Length:** 8192 tokens
- **Output Dimensionality:** 768 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'VietnameseModel'})
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("HoangVuSnape/vietnamese-document-embedding_pr_v2_ep30_new")
# Run inference
sentences = [
'Xin hãy liệt kê các trung tâm của Trường Đại học Sư phạm Kỹ thuật TP. Hồ Chí Minh.',
'Phòng Đào tạo\n\n2. Phòng Đào tạo không chính quy\n\n3. Phòng Tuyển sinh và Công tác Sinh viên\n\n4. Phòng Truyền thông\n\n5. Phòng Khoa học Công nghệ - Quan hệ Quốc tế\n\n6. Phòng Quan hệ Doanh nghiệp\n\n7. Phòng Thanh tra - Giáo dục\n\n8. Phòng Đảm bảo Chất lượng\n\n9. Phòng Tổ chức - Hành chính\n\n10. Phòng Kế hoạch - Tài chính\n\n11. Phòng Quản trị Cơ sở Vật chất\n\n12. Phòng Thiết bị - Vật tư\n\n13. Ban quản lý KTX\n\n14. Trạm Y tế\n\n15. Bộ phận Quản lý Hồ sơ Dự án\n\nC. Danh sách các trung tâm của Trường Đại học Sư phạm Kỹ thuật Thành phố Hồ Chí Minh:\n\n1. Ngoại ngữ\n\n2. Tin học\n\n3. Thư viện\n\n4. Hợp tác Đào tạo Quốc tế\n\n5. Việt – Đức\n\n6. Dịch vụ Sinh viên\n\n7. Thông tin – Máy tính\n\n8. Dạy học số\n\n9. Kỹ thuật Tổng hợp\n\n10. Chế tạo và Thiết kế Thiết bị Công nghiệp\n\n11. Đào tạo và hướng nghiệp quốc tế Việt Nhật\n\n12. Đào tạo ngắn hạn\n\n13. Giáo dục Thể chất - Quốc phòng\n\n14. Đào tạo Bồi dưỡng giáo viên phổ thông, giáo dục nghề nghiệp miền Trung - Tây Nguyên\n\n15. Nghiên cứu và Ứng dụng Kỹ thuật Xây dựng\n\n16. Bồi dưỡng và Đánh giá kỹ năng nghề Quốc gia\n\n17. Phát triển ngôn ngữ\n\n18. Nghiên cứu và Chuyển giao Công nghệ\n\n19. Công nghệ phần mềm\n\n20. Hàn ngữ học Dong A\n\n21. Sáng tạo và Khởi nghiệp\n\n22. Trung tâm hướng nghiệp và đào tạo Việt Nhật\n\nD. Các ngành đào tạo trình độ đại học\n\nĐi cùng với sự vận động và phát triển của nền kinh tế đất nước theo hướng công nghiệp hóa, hiện đại hóa, Trường Đại học Sư phạm Kỹ thuật Tp. Hồ Chí Minh đã tiếp cận thực tế để mở rộng đào tạo gần 30 ngành đào tạo trình độ đại học\n\ni.',
'Thực hiện hướng dẫn của Bộ Giáo dục và Đào tạo tại Công văn số 1919/BGDĐT-GDĐH ngày 28 tháng 4 năm 2023, phương thức xét tuyển kết quả điểm thi tốt nghiệp Trung học phổ thông vẫn được giữ nguyên như năm 2022. Tổ hợp môn xét tuyển: B00 (Toán – Hóa – Sinh) chung cho tất cả các ngành. năm 2022, Trường Đại học Y khoa Phạm Ngọc Thạch tuyển được 1.367 chỉ tiêu (đạt 104,4% so với chỉ tiêu đề ra). chỉ tiêu tuyển sinh đại học chính quy của Trường Đại học Y khoa Phạm Ngọc Thạch năm 2023. 1. Y khoa: 660 2. Dược học: 90 3. Điều dưỡng: 250 4. Dinh dưỡng: 60 5. Răng Hàm Mặt: 90 6. Kỹ thuật xét nghiệm y học: 50 7. Kỹ thuật hình ảnh y học: 40 8. Kỹ thuật phục hồi chức năng: 30 9. Khúc xạ nhãn khoa: 40 10. Y tế công cộng: 56\n\nGhi chú: chỉ tiêu được chia cho các thí sinh có hộ khẩu ở TP HCM và ngoài TP HCM với tỉ lệ 50%\n\nĐiểm chuẩn của trường Đại học Y khoa Phạm Ngọc Thạch 2023: Y khoa, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,90, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 26.31 Dược học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,28, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 25,25 Điều dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,40, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,40 Dinh dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,25, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,80 Răng - Hàm - Mặt, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 26,00, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 26,28 Kỹ thuật Xét nghiệm Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 24,54, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 24,47 Kỹ thuật Hình ảnh Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,45, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,61 Khúc xạ nhãn khoa, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,75, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,75 Y tế công cộng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 18,85, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 18,35 Kỹ thuật Phục hồi chức năng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,15, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,09',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.8413, 0.0106],
# [0.8413, 1.0000, 0.0259],
# [0.0106, 0.0259, 1.0000]])
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Information Retrieval
* Dataset: `dim_768`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
```json
{
"truncate_dim": 768
}
```
| Metric | Value |
|:--------------------|:-----------|
| cosine_accuracy@1 | 0.676 |
| cosine_accuracy@3 | 0.9001 |
| cosine_accuracy@5 | 0.9484 |
| cosine_accuracy@10 | 0.9857 |
| cosine_precision@1 | 0.676 |
| cosine_precision@3 | 0.3 |
| cosine_precision@5 | 0.1897 |
| cosine_precision@10 | 0.0986 |
| cosine_recall@1 | 0.676 |
| cosine_recall@3 | 0.9001 |
| cosine_recall@5 | 0.9484 |
| cosine_recall@10 | 0.9857 |
| **cosine_ndcg@10** | **0.8421** |
| cosine_mrr@10 | 0.7947 |
| cosine_map@100 | 0.7957 |
#### Information Retrieval
* Dataset: `dim_512`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
```json
{
"truncate_dim": 512
}
```
| Metric | Value |
|:--------------------|:-----------|
| cosine_accuracy@1 | 0.6827 |
| cosine_accuracy@3 | 0.9137 |
| cosine_accuracy@5 | 0.9565 |
| cosine_accuracy@10 | 0.9898 |
| cosine_precision@1 | 0.6827 |
| cosine_precision@3 | 0.3046 |
| cosine_precision@5 | 0.1913 |
| cosine_precision@10 | 0.099 |
| cosine_recall@1 | 0.6827 |
| cosine_recall@3 | 0.9137 |
| cosine_recall@5 | 0.9565 |
| cosine_recall@10 | 0.9898 |
| **cosine_ndcg@10** | **0.8484** |
| cosine_mrr@10 | 0.8017 |
| cosine_map@100 | 0.8024 |
#### Information Retrieval
* Dataset: `dim_256`
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
```json
{
"truncate_dim": 256
}
```
| Metric | Value |
|:--------------------|:-----------|
| cosine_accuracy@1 | 0.6814 |
| cosine_accuracy@3 | 0.9158 |
| cosine_accuracy@5 | 0.9599 |
| cosine_accuracy@10 | 0.9891 |
| cosine_precision@1 | 0.6814 |
| cosine_precision@3 | 0.3053 |
| cosine_precision@5 | 0.192 |
| cosine_precision@10 | 0.0989 |
| cosine_recall@1 | 0.6814 |
| cosine_recall@3 | 0.9158 |
| cosine_recall@5 | 0.9599 |
| cosine_recall@10 | 0.9891 |
| **cosine_ndcg@10** | **0.8484** |
| cosine_mrr@10 | 0.8017 |
| cosine_map@100 | 0.8025 |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 1,472 training samples
* Columns: <code>anchor</code> and <code>positive</code>
* Approximate statistics based on the first 1000 samples:
| | anchor | positive |
|:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
| type | string | string |
| details | <ul><li>min: 9 tokens</li><li>mean: 25.49 tokens</li><li>max: 62 tokens</li></ul> | <ul><li>min: 14 tokens</li><li>mean: 559.43 tokens</li><li>max: 6602 tokens</li></ul> |
* Samples:
| anchor | positive |
|:-----------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| <code>Ngành Quản lý Tài nguyên và Môi trường trang bị cho sinh viên những kiến thức và kỹ năng gì?</code> | <code>Sau khi tốt nghiệp, người học sẽ:<br><br>Có kiến thức cơ bản về toán học, khoa học tự nhiên, đáp ứng cho việc tiếp thu các kiến thức giáo dục chuyên nghiệp và khả năng học tập ở trình độ cao hơn<br><br>Có các kiến thức kỹ thuật cơ sở ngành và chuyên ngành giúp đủ năng lực phát hiện, giải quyết các vấn đề liên quan đến công nghệ sản xuất, chế tạo và ứng dụng vật liệu vào trong xây dựng, kiểm soát chất lượng nguyên vật liệu và cấu kiện sản phẩm xây dựng, nghiên cứu sản xuất chế tạo và phát triển các loại vật liệu mới, hiện đại, tiên tiến, độc đáo, hiệu quả, xanh, bền vững… nhằm hướng tới sự phát triển bền vững trong công nghiệp xây dựng và kiến trúc, thiết kế và thi công trong các công trình xây dựng; có tính sáng tạo trong hoạt động nghề nghiệp, có khả năng tự học và tự nghiên cứu;<br><br>Có kỹ năng cá nhân, nghề nghiệp, giao tiếp, làm việc nhóm đủ để làm việc trong môi trường làm việc liên ngành, đa văn hóa;<br><br>Có hiểu biết về kinh tế, chính trị, có các kiến thức cơ bản trong lĩnh vực khoa học xã hội và n...</code> |
| <code>Chương trình Kỹ thuật Môi trường đào tạo sinh viên về những năng lực nào và có điểm gì nổi bật đối với chương trình giảng dạy bằng tiếng Anh?</code> | <code>Sau khi tốt nghiệp, người học sẽ:<br><br>Có kiến thức cơ bản về toán học, khoa học tự nhiên, đáp ứng cho việc tiếp thu các kiến thức giáo dục chuyên nghiệp và khả năng học tập ở trình độ cao hơn<br><br>Có các kiến thức kỹ thuật cơ sở ngành và chuyên ngành giúp đủ năng lực phát hiện, giải quyết các vấn đề liên quan đến công nghệ sản xuất, chế tạo và ứng dụng vật liệu vào trong xây dựng, kiểm soát chất lượng nguyên vật liệu và cấu kiện sản phẩm xây dựng, nghiên cứu sản xuất chế tạo và phát triển các loại vật liệu mới, hiện đại, tiên tiến, độc đáo, hiệu quả, xanh, bền vững… nhằm hướng tới sự phát triển bền vững trong công nghiệp xây dựng và kiến trúc, thiết kế và thi công trong các công trình xây dựng; có tính sáng tạo trong hoạt động nghề nghiệp, có khả năng tự học và tự nghiên cứu;<br><br>Có kỹ năng cá nhân, nghề nghiệp, giao tiếp, làm việc nhóm đủ để làm việc trong môi trường làm việc liên ngành, đa văn hóa;<br><br>Có hiểu biết về kinh tế, chính trị, có các kiến thức cơ bản trong lĩnh vực khoa học xã hội và n...</code> |
| <code>Ngành Kỹ thuật Dầu khí và Kỹ thuật Địa chất tập trung nghiên cứu và ứng dụng những lĩnh vực cốt lõi nào?</code> | <code>Các công ty nghiên cứu và khảo sát địa chất, tư vấn về nền móng công trình. Các tổ chức liên quan đến quy hoạch và phát triển đô thị. Kỹ thuật Dầu khí<br><br>Tổng quan<br><br>Kỹ thuật Dầu khí là ngành học chuyên nghiên cứu về các kỹ thuật khai thác, sản xuất và xử lý dầu khí. Sinh viên sẽ học các phương pháp khoan, khai thác dầu, khí tự nhiên, và xử lý các vấn đề kỹ thuật trong ngành dầu khí, từ việc tìm kiếm và khai thác tài nguyên cho đến việc tối ưu hóa quy trình sản xuất. CÁC ĐIỂM ĐẶC BIỆT<br><br>Khả năng ứng dụng cao: Sinh viên ngành Kỹ thuật Dầu khí sẽ được trang bị kiến thức thực tế về công nghệ khai thác dầu khí và các phương pháp tối ưu hóa sản xuất. Ngành công nghiệp chiến lược: Dầu khí vẫn là một trong những ngành công nghiệp mũi nhọn và cần nguồn nhân lực có trình độ cao trong việc khai thác và xử lý tài nguyên thiên nhiên. Triển vọng việc làm<br><br>Các công ty khai thác dầu khí trong nước và quốc tế. Các công ty tư vấn và kỹ thuật dầu khí, nghiên cứu các giải pháp tối ưu trong khai thác. Các côn...</code> |
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
```json
{
"loss": "MultipleNegativesRankingLoss",
"matryoshka_dims": [
768,
512,
256,
12
],
"matryoshka_weights": [
1,
1,
1,
1
],
"n_dims_per_step": -1
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `gradient_accumulation_steps`: 8
- `learning_rate`: 2e-05
- `num_train_epochs`: 30
- `lr_scheduler_type`: cosine
- `warmup_ratio`: 0.1
- `bf16`: True
- `tf32`: True
- `dataloader_drop_last`: True
- `dataloader_num_workers`: 8
- `load_best_model_at_end`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 8
- `per_device_eval_batch_size`: 8
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 8
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 30
- `max_steps`: -1
- `lr_scheduler_type`: cosine
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: True
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: True
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: True
- `dataloader_num_workers`: 8
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
- `router_mapping`: {}
- `learning_rate_mapping`: {}
</details>
### Training Logs
| Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 |
|:-------:|:----:|:-------------:|:----------------------:|:----------------------:|:----------------------:|
| -1 | -1 | - | 0.4980 | 0.4994 | 0.4823 |
| 0.4348 | 10 | 3.6503 | 0.5158 | 0.5133 | 0.4978 |
| 0.8696 | 20 | 2.7131 | 0.5417 | 0.5388 | 0.5257 |
| 1.3043 | 30 | 2.2307 | 0.5621 | 0.5637 | 0.5534 |
| 1.7391 | 40 | 2.1341 | 0.5831 | 0.5840 | 0.5757 |
| 2.1739 | 50 | 1.8576 | 0.6081 | 0.6077 | 0.5999 |
| 2.6087 | 60 | 1.4278 | 0.6271 | 0.6278 | 0.6192 |
| 3.0435 | 70 | 1.3602 | 0.6396 | 0.6412 | 0.6335 |
| 3.4783 | 80 | 1.1086 | 0.6528 | 0.6550 | 0.6490 |
| 3.9130 | 90 | 0.9657 | 0.6675 | 0.6704 | 0.6658 |
| 4.3478 | 100 | 0.7836 | 0.6811 | 0.6777 | 0.6750 |
| 4.7826 | 110 | 0.6755 | 0.6892 | 0.6883 | 0.6881 |
| 5.2174 | 120 | 0.6679 | 0.6935 | 0.6955 | 0.6968 |
| 5.6522 | 130 | 0.7005 | 0.7054 | 0.7078 | 0.7084 |
| 6.0870 | 140 | 0.5895 | 0.7161 | 0.7161 | 0.7154 |
| 6.5217 | 150 | 0.4809 | 0.7233 | 0.7232 | 0.7205 |
| 6.9565 | 160 | 0.5287 | 0.7240 | 0.7260 | 0.7249 |
| 7.3913 | 170 | 0.4976 | 0.7375 | 0.7404 | 0.7372 |
| 7.8261 | 180 | 0.3886 | 0.7390 | 0.7418 | 0.7404 |
| 8.2609 | 190 | 0.5025 | 0.7481 | 0.7531 | 0.7516 |
| 8.6957 | 200 | 0.4322 | 0.7531 | 0.7568 | 0.7604 |
| 9.1304 | 210 | 0.3929 | 0.7563 | 0.7616 | 0.7607 |
| 9.5652 | 220 | 0.3131 | 0.7561 | 0.7647 | 0.7648 |
| 10.0 | 230 | 0.4091 | 0.7568 | 0.7592 | 0.7616 |
| 10.4348 | 240 | 0.3219 | 0.7557 | 0.7604 | 0.7643 |
| 10.8696 | 250 | 0.3227 | 0.7677 | 0.7728 | 0.7774 |
| 11.3043 | 260 | 0.3406 | 0.7742 | 0.7800 | 0.7850 |
| 11.7391 | 270 | 0.2998 | 0.7759 | 0.7816 | 0.7845 |
| 12.1739 | 280 | 0.2681 | 0.7766 | 0.7824 | 0.7867 |
| 12.6087 | 290 | 0.2621 | 0.7774 | 0.7840 | 0.7839 |
| 13.0435 | 300 | 0.3037 | 0.7782 | 0.7817 | 0.7863 |
| 13.4783 | 310 | 0.3236 | 0.7911 | 0.7949 | 0.7958 |
| 13.9130 | 320 | 0.2847 | 0.7962 | 0.8013 | 0.8026 |
| 14.3478 | 330 | 0.3139 | 0.7983 | 0.8007 | 0.8068 |
| 14.7826 | 340 | 0.2783 | 0.7994 | 0.8025 | 0.8081 |
| 15.2609 | 350 | 0.2623 | 0.8041 | 0.8087 | 0.8102 |
| 15.6957 | 360 | 0.2617 | 0.8102 | 0.8105 | 0.8149 |
| 16.1304 | 370 | 0.2566 | 0.8132 | 0.8177 | 0.8205 |
| 16.5652 | 380 | 0.2296 | 0.8166 | 0.8206 | 0.8236 |
| 17.0 | 390 | 0.2334 | 0.8179 | 0.8231 | 0.8236 |
| 17.4348 | 400 | 0.2386 | 0.8205 | 0.8249 | 0.8274 |
| 17.8696 | 410 | 0.1751 | 0.8241 | 0.8261 | 0.8300 |
| 18.3043 | 420 | 0.2488 | 0.8229 | 0.8263 | 0.8323 |
| 18.7391 | 430 | 0.239 | 0.8272 | 0.8294 | 0.8344 |
| 19.1739 | 440 | 0.2231 | 0.8329 | 0.8335 | 0.8360 |
| 19.6087 | 450 | 0.2516 | 0.8341 | 0.8352 | 0.8411 |
| 20.0435 | 460 | 0.2544 | 0.8325 | 0.8385 | 0.8425 |
| 20.4783 | 470 | 0.2082 | 0.8348 | 0.8407 | 0.8457 |
| 20.9130 | 480 | 0.1868 | 0.8361 | 0.8414 | 0.8460 |
| 21.3478 | 490 | 0.2454 | 0.8361 | 0.8437 | 0.8454 |
| 21.7826 | 500 | 0.222 | 0.8343 | 0.8435 | 0.8462 |
| 22.2174 | 510 | 0.1554 | 0.8348 | 0.8430 | 0.8461 |
| 22.6522 | 520 | 0.14 | 0.8352 | 0.8416 | 0.8454 |
| 23.0870 | 530 | 0.1867 | 0.8357 | 0.8422 | 0.8463 |
| 23.5217 | 540 | 0.2078 | 0.8361 | 0.8441 | 0.8449 |
| 23.9565 | 550 | 0.1929 | 0.8370 | 0.8437 | 0.8437 |
| 24.3913 | 560 | 0.1776 | 0.8380 | 0.8435 | 0.8428 |
| 24.8261 | 570 | 0.2524 | 0.8387 | 0.8448 | 0.8449 |
| 25.2609 | 580 | 0.1914 | 0.8406 | 0.8465 | 0.8458 |
| 25.6957 | 590 | 0.1841 | 0.8414 | 0.8468 | 0.8471 |
| 26.1304 | 600 | 0.165 | 0.8423 | 0.8476 | 0.8468 |
| 26.5652 | 610 | 0.1717 | 0.8417 | 0.8489 | 0.8492 |
| 27.0 | 620 | 0.2091 | 0.8414 | 0.8488 | 0.8484 |
| 27.4348 | 630 | 0.1889 | 0.8414 | 0.8487 | 0.8486 |
| 27.8696 | 640 | 0.2025 | 0.8418 | 0.8486 | 0.8483 |
| 28.3043 | 650 | 0.1722 | 0.8415 | 0.8490 | 0.8488 |
| 28.7391 | 660 | 0.1621 | 0.8418 | 0.8483 | 0.8490 |
| 29.1739 | 670 | 0.1651 | 0.8422 | 0.8481 | 0.8492 |
| 29.6087 | 680 | 0.1837 | 0.8421 | 0.8484 | 0.8484 |
### Framework Versions
- Python: 3.10.12
- Sentence Transformers: 5.1.0
- Transformers: 4.55.2
- PyTorch: 2.8.0+cu128
- Accelerate: 1.10.0
- Datasets: 4.0.0
- Tokenizers: 0.21.4
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MatryoshkaLoss
```bibtex
@misc{kusupati2024matryoshka,
title={Matryoshka Representation Learning},
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
year={2024},
eprint={2205.13147},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
```
#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->
|
lqpl/blockassist-bc-hairy_insectivorous_antelope_1755585896
|
lqpl
| 2025-08-19T06:48:01Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"hairy insectivorous antelope",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:45:50Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- hairy insectivorous antelope
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755584903
|
Sayemahsjn
| 2025-08-19T06:47:10Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"playful feline octopus",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:47:06Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- playful feline octopus
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
donoway/ARC-Easy_Llama-3.2-1B-qba6fe5a
|
donoway
| 2025-08-19T06:45:46Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T06:33:14Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: ARC-Easy_Llama-3.2-1B-qba6fe5a
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# ARC-Easy_Llama-3.2-1B-qba6fe5a
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 2.1998
- Model Preparation Time: 0.006
- Mdl: 1808.9895
- Accumulated Loss: 1253.8960
- Correct Preds: 346.0
- Total Preds: 570.0
- Accuracy: 0.6070
- Correct Gen Preds: 337.0
- Gen Accuracy: 0.5912
- Correct Gen Preds 32: 123.0
- Correct Preds 32: 131.0
- Total Labels 32: 158.0
- Accuracy 32: 0.8291
- Gen Accuracy 32: 0.7785
- Correct Gen Preds 33: 106.0
- Correct Preds 33: 106.0
- Total Labels 33: 152.0
- Accuracy 33: 0.6974
- Gen Accuracy 33: 0.6974
- Correct Gen Preds 34: 74.0
- Correct Preds 34: 75.0
- Total Labels 34: 142.0
- Accuracy 34: 0.5282
- Gen Accuracy 34: 0.5211
- Correct Gen Preds 35: 34.0
- Correct Preds 35: 34.0
- Total Labels 35: 118.0
- Accuracy 35: 0.2881
- Gen Accuracy 35: 0.2881
- Correct Gen Preds 36: 0.0
- Correct Preds 36: 0.0
- Total Labels 36: 0.0
- Accuracy 36: 0.0
- Gen Accuracy 36: 0.0
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 112
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|
| No log | 0 | 0 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.4642 | 1.0 | 1 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.4642 | 2.0 | 2 | 2.4299 | 0.006 | 1998.1608 | 1385.0195 | 210.0 | 570.0 | 0.3684 | 210.0 | 0.3684 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 144.0 | 144.0 | 152.0 | 0.9474 | 0.9474 | 66.0 | 66.0 | 142.0 | 0.4648 | 0.4648 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.7757 | 3.0 | 3 | 1.2974 | 0.006 | 1066.9296 | 739.5393 | 185.0 | 570.0 | 0.3246 | 185.0 | 0.3246 | 6.0 | 6.0 | 158.0 | 0.0380 | 0.0380 | 152.0 | 152.0 | 152.0 | 1.0 | 1.0 | 27.0 | 27.0 | 142.0 | 0.1901 | 0.1901 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.6892 | 4.0 | 4 | 2.0158 | 0.006 | 1657.6402 | 1148.9886 | 279.0 | 570.0 | 0.4895 | 279.0 | 0.4895 | 148.0 | 148.0 | 158.0 | 0.9367 | 0.9367 | 48.0 | 48.0 | 152.0 | 0.3158 | 0.3158 | 57.0 | 57.0 | 142.0 | 0.4014 | 0.4014 | 26.0 | 26.0 | 118.0 | 0.2203 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.1661 | 5.0 | 5 | 2.1998 | 0.006 | 1808.9895 | 1253.8960 | 346.0 | 570.0 | 0.6070 | 337.0 | 0.5912 | 123.0 | 131.0 | 158.0 | 0.8291 | 0.7785 | 106.0 | 106.0 | 152.0 | 0.6974 | 0.6974 | 74.0 | 75.0 | 142.0 | 0.5282 | 0.5211 | 34.0 | 34.0 | 118.0 | 0.2881 | 0.2881 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0079 | 6.0 | 6 | 2.8282 | 0.006 | 2325.6988 | 1612.0516 | 343.0 | 570.0 | 0.6018 | 296.0 | 0.5193 | 84.0 | 123.0 | 158.0 | 0.7785 | 0.5316 | 105.0 | 109.0 | 152.0 | 0.7171 | 0.6908 | 72.0 | 76.0 | 142.0 | 0.5352 | 0.5070 | 35.0 | 35.0 | 118.0 | 0.2966 | 0.2966 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0001 | 7.0 | 7 | 3.1565 | 0.006 | 2595.6829 | 1799.1903 | 339.0 | 570.0 | 0.5947 | 264.0 | 0.4632 | 60.0 | 117.0 | 158.0 | 0.7405 | 0.3797 | 104.0 | 111.0 | 152.0 | 0.7303 | 0.6842 | 69.0 | 76.0 | 142.0 | 0.5352 | 0.4859 | 31.0 | 35.0 | 118.0 | 0.2966 | 0.2627 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 8.0 | 8 | 3.3429 | 0.006 | 2749.0232 | 1905.4777 | 331.0 | 570.0 | 0.5807 | 236.0 | 0.4140 | 40.0 | 112.0 | 158.0 | 0.7089 | 0.2532 | 101.0 | 110.0 | 152.0 | 0.7237 | 0.6645 | 68.0 | 77.0 | 142.0 | 0.5423 | 0.4789 | 27.0 | 32.0 | 118.0 | 0.2712 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 9.0 | 9 | 3.5286 | 0.006 | 2901.6844 | 2011.2944 | 327.0 | 570.0 | 0.5737 | 228.0 | 0.4 | 41.0 | 110.0 | 158.0 | 0.6962 | 0.2595 | 99.0 | 111.0 | 152.0 | 0.7303 | 0.6513 | 61.0 | 74.0 | 142.0 | 0.5211 | 0.4296 | 27.0 | 32.0 | 118.0 | 0.2712 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 10.0 | 10 | 3.6900 | 0.006 | 3034.4363 | 2103.3110 | 323.0 | 570.0 | 0.5667 | 227.0 | 0.3982 | 41.0 | 111.0 | 158.0 | 0.7025 | 0.2595 | 97.0 | 107.0 | 152.0 | 0.7039 | 0.6382 | 62.0 | 73.0 | 142.0 | 0.5141 | 0.4366 | 27.0 | 32.0 | 118.0 | 0.2712 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 11.0 | 11 | 3.7945 | 0.006 | 3120.3216 | 2162.8421 | 323.0 | 570.0 | 0.5667 | 230.0 | 0.4035 | 43.0 | 112.0 | 158.0 | 0.7089 | 0.2722 | 98.0 | 107.0 | 152.0 | 0.7039 | 0.6447 | 63.0 | 73.0 | 142.0 | 0.5141 | 0.4437 | 26.0 | 31.0 | 118.0 | 0.2627 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 12.0 | 12 | 3.8860 | 0.006 | 3195.5829 | 2215.0093 | 321.0 | 570.0 | 0.5632 | 227.0 | 0.3982 | 46.0 | 111.0 | 158.0 | 0.7025 | 0.2911 | 94.0 | 105.0 | 152.0 | 0.6908 | 0.6184 | 62.0 | 74.0 | 142.0 | 0.5211 | 0.4366 | 25.0 | 31.0 | 118.0 | 0.2627 | 0.2119 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 13.0 | 13 | 3.9627 | 0.006 | 3258.6448 | 2258.7204 | 321.0 | 570.0 | 0.5632 | 226.0 | 0.3965 | 45.0 | 110.0 | 158.0 | 0.6962 | 0.2848 | 94.0 | 106.0 | 152.0 | 0.6974 | 0.6184 | 62.0 | 74.0 | 142.0 | 0.5211 | 0.4366 | 25.0 | 31.0 | 118.0 | 0.2627 | 0.2119 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 14.0 | 14 | 4.0387 | 0.006 | 3321.1484 | 2302.0447 | 319.0 | 570.0 | 0.5596 | 227.0 | 0.3982 | 48.0 | 109.0 | 158.0 | 0.6899 | 0.3038 | 93.0 | 105.0 | 152.0 | 0.6908 | 0.6118 | 61.0 | 74.0 | 142.0 | 0.5211 | 0.4296 | 25.0 | 31.0 | 118.0 | 0.2627 | 0.2119 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 15.0 | 15 | 4.0577 | 0.006 | 3336.7945 | 2312.8897 | 319.0 | 570.0 | 0.5596 | 226.0 | 0.3965 | 48.0 | 109.0 | 158.0 | 0.6899 | 0.3038 | 91.0 | 106.0 | 152.0 | 0.6974 | 0.5987 | 60.0 | 74.0 | 142.0 | 0.5211 | 0.4225 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 16.0 | 16 | 4.0975 | 0.006 | 3369.4997 | 2335.5592 | 317.0 | 570.0 | 0.5561 | 224.0 | 0.3930 | 50.0 | 109.0 | 158.0 | 0.6899 | 0.3165 | 88.0 | 104.0 | 152.0 | 0.6842 | 0.5789 | 60.0 | 73.0 | 142.0 | 0.5141 | 0.4225 | 26.0 | 31.0 | 118.0 | 0.2627 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 17.0 | 17 | 4.1230 | 0.006 | 3390.5230 | 2350.1314 | 316.0 | 570.0 | 0.5544 | 229.0 | 0.4018 | 51.0 | 108.0 | 158.0 | 0.6835 | 0.3228 | 91.0 | 104.0 | 152.0 | 0.6842 | 0.5987 | 60.0 | 74.0 | 142.0 | 0.5211 | 0.4225 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 18.0 | 18 | 4.1552 | 0.006 | 3416.9873 | 2368.4751 | 318.0 | 570.0 | 0.5579 | 229.0 | 0.4018 | 51.0 | 108.0 | 158.0 | 0.6835 | 0.3228 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 31.0 | 118.0 | 0.2627 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 19.0 | 19 | 4.1977 | 0.006 | 3451.8923 | 2392.6694 | 316.0 | 570.0 | 0.5544 | 227.0 | 0.3982 | 50.0 | 108.0 | 158.0 | 0.6835 | 0.3165 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 62.0 | 75.0 | 142.0 | 0.5282 | 0.4366 | 26.0 | 30.0 | 118.0 | 0.2542 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 20.0 | 20 | 4.1922 | 0.006 | 3447.4190 | 2389.5688 | 317.0 | 570.0 | 0.5561 | 228.0 | 0.4 | 51.0 | 109.0 | 158.0 | 0.6899 | 0.3228 | 89.0 | 104.0 | 152.0 | 0.6842 | 0.5855 | 60.0 | 74.0 | 142.0 | 0.5211 | 0.4225 | 28.0 | 30.0 | 118.0 | 0.2542 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 21.0 | 21 | 4.2154 | 0.006 | 3466.4538 | 2402.7627 | 317.0 | 570.0 | 0.5561 | 231.0 | 0.4053 | 53.0 | 109.0 | 158.0 | 0.6899 | 0.3354 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 22.0 | 22 | 4.2255 | 0.006 | 3474.8213 | 2408.5626 | 319.0 | 570.0 | 0.5596 | 231.0 | 0.4053 | 51.0 | 108.0 | 158.0 | 0.6835 | 0.3228 | 90.0 | 103.0 | 152.0 | 0.6776 | 0.5921 | 63.0 | 78.0 | 142.0 | 0.5493 | 0.4437 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 23.0 | 23 | 4.2222 | 0.006 | 3472.0563 | 2406.6461 | 323.0 | 570.0 | 0.5667 | 234.0 | 0.4105 | 53.0 | 111.0 | 158.0 | 0.7025 | 0.3354 | 89.0 | 104.0 | 152.0 | 0.6842 | 0.5855 | 64.0 | 77.0 | 142.0 | 0.5423 | 0.4507 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 24.0 | 24 | 4.2449 | 0.006 | 3490.7282 | 2419.5884 | 318.0 | 570.0 | 0.5579 | 233.0 | 0.4088 | 53.0 | 108.0 | 158.0 | 0.6835 | 0.3354 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 63.0 | 76.0 | 142.0 | 0.5352 | 0.4437 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 25.0 | 25 | 4.2439 | 0.006 | 3489.9021 | 2419.0158 | 317.0 | 570.0 | 0.5561 | 234.0 | 0.4105 | 53.0 | 107.0 | 158.0 | 0.6772 | 0.3354 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 64.0 | 76.0 | 142.0 | 0.5352 | 0.4507 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 26.0 | 26 | 4.2465 | 0.006 | 3492.0437 | 2420.5002 | 316.0 | 570.0 | 0.5544 | 233.0 | 0.4088 | 55.0 | 109.0 | 158.0 | 0.6899 | 0.3481 | 89.0 | 101.0 | 152.0 | 0.6645 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 27.0 | 27 | 4.2626 | 0.006 | 3505.3292 | 2429.7091 | 317.0 | 570.0 | 0.5561 | 233.0 | 0.4088 | 54.0 | 109.0 | 158.0 | 0.6899 | 0.3418 | 88.0 | 102.0 | 152.0 | 0.6711 | 0.5789 | 62.0 | 75.0 | 142.0 | 0.5282 | 0.4366 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 28.0 | 28 | 4.2468 | 0.006 | 3492.3048 | 2420.6812 | 320.0 | 570.0 | 0.5614 | 234.0 | 0.4105 | 53.0 | 108.0 | 158.0 | 0.6835 | 0.3354 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 63.0 | 78.0 | 142.0 | 0.5493 | 0.4437 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 29.0 | 29 | 4.2713 | 0.006 | 3512.4807 | 2434.6661 | 318.0 | 570.0 | 0.5579 | 233.0 | 0.4088 | 54.0 | 109.0 | 158.0 | 0.6899 | 0.3418 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 30.0 | 30 | 4.2732 | 0.006 | 3513.9739 | 2435.7011 | 317.0 | 570.0 | 0.5561 | 234.0 | 0.4105 | 54.0 | 108.0 | 158.0 | 0.6835 | 0.3418 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 31.0 | 31 | 4.2507 | 0.006 | 3495.4848 | 2422.8854 | 319.0 | 570.0 | 0.5596 | 232.0 | 0.4070 | 53.0 | 109.0 | 158.0 | 0.6899 | 0.3354 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 77.0 | 142.0 | 0.5423 | 0.4366 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 32.0 | 32 | 4.2647 | 0.006 | 3507.0566 | 2430.9064 | 321.0 | 570.0 | 0.5632 | 235.0 | 0.4123 | 54.0 | 109.0 | 158.0 | 0.6899 | 0.3418 | 89.0 | 104.0 | 152.0 | 0.6842 | 0.5855 | 64.0 | 78.0 | 142.0 | 0.5493 | 0.4507 | 28.0 | 30.0 | 118.0 | 0.2542 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 33.0 | 33 | 4.2689 | 0.006 | 3510.5114 | 2433.3011 | 315.0 | 570.0 | 0.5526 | 230.0 | 0.4035 | 52.0 | 106.0 | 158.0 | 0.6709 | 0.3291 | 88.0 | 102.0 | 152.0 | 0.6711 | 0.5789 | 63.0 | 77.0 | 142.0 | 0.5423 | 0.4437 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 34.0 | 34 | 4.2978 | 0.006 | 3534.2027 | 2449.7226 | 318.0 | 570.0 | 0.5579 | 233.0 | 0.4088 | 55.0 | 109.0 | 158.0 | 0.6899 | 0.3481 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 35.0 | 35 | 4.2874 | 0.006 | 3525.6484 | 2443.7932 | 319.0 | 570.0 | 0.5596 | 233.0 | 0.4088 | 53.0 | 110.0 | 158.0 | 0.6962 | 0.3354 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
tslim1/AceMath-7B-Instruct-mlx-8Bit
|
tslim1
| 2025-08-19T06:45:00Z | 0 | 0 |
mlx
|
[
"mlx",
"safetensors",
"qwen2",
"nvidia",
"AceMath",
"math",
"CoT",
"pytorch",
"mlx-my-repo",
"text-generation",
"conversational",
"en",
"base_model:nvidia/AceMath-7B-Instruct",
"base_model:quantized:nvidia/AceMath-7B-Instruct",
"license:cc-by-nc-4.0",
"8-bit",
"region:us"
] |
text-generation
| 2025-08-19T06:44:13Z |
---
license: cc-by-nc-4.0
language:
- en
pipeline_tag: text-generation
tags:
- nvidia
- AceMath
- math
- CoT
- pytorch
- mlx
- mlx-my-repo
base_model: nvidia/AceMath-7B-Instruct
---
# tslim1/AceMath-7B-Instruct-mlx-8Bit
The Model [tslim1/AceMath-7B-Instruct-mlx-8Bit](https://huggingface.co/tslim1/AceMath-7B-Instruct-mlx-8Bit) was converted to MLX format from [nvidia/AceMath-7B-Instruct](https://huggingface.co/nvidia/AceMath-7B-Instruct) using mlx-lm version **0.26.3**.
## Use with mlx
```bash
pip install mlx-lm
```
```python
from mlx_lm import load, generate
model, tokenizer = load("tslim1/AceMath-7B-Instruct-mlx-8Bit")
prompt="hello"
if hasattr(tokenizer, "apply_chat_template") and tokenizer.chat_template is not None:
messages = [{"role": "user", "content": prompt}]
prompt = tokenizer.apply_chat_template(
messages, tokenize=False, add_generation_prompt=True
)
response = generate(model, tokenizer, prompt=prompt, verbose=True)
```
|
KCS97/poop_emoji
|
KCS97
| 2025-08-19T06:44:52Z | 0 | 0 |
diffusers
|
[
"diffusers",
"tensorboard",
"safetensors",
"text-to-image",
"dreambooth",
"diffusers-training",
"stable-diffusion",
"stable-diffusion-diffusers",
"base_model:stable-diffusion-v1-5/stable-diffusion-v1-5",
"base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5",
"license:creativeml-openrail-m",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-08-19T06:33:48Z |
---
base_model: stable-diffusion-v1-5/stable-diffusion-v1-5
library_name: diffusers
license: creativeml-openrail-m
inference: true
instance_prompt: a photo of sks emoji
tags:
- text-to-image
- dreambooth
- diffusers-training
- stable-diffusion
- stable-diffusion-diffusers
---
<!-- This model card has been generated automatically according to the information the training script had access to. You
should probably proofread and complete it, then remove this comment. -->
# DreamBooth - KCS97/poop_emoji
This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks emoji using [DreamBooth](https://dreambooth.github.io/).
You can find some example images in the following.
DreamBooth for the text encoder was enabled: False.
## Intended uses & limitations
#### How to use
```python
# TODO: add an example code snippet for running this diffusion pipeline
```
#### Limitations and bias
[TODO: provide examples of latent issues and potential remediations]
## Training details
[TODO: describe the data used to train the model]
|
VoilaRaj/78_IPMZFU
|
VoilaRaj
| 2025-08-19T06:43:52Z | 0 | 0 | null |
[
"safetensors",
"any-to-any",
"omega",
"omegalabs",
"bittensor",
"agi",
"license:mit",
"region:us"
] |
any-to-any
| 2025-08-19T06:40:03Z |
---
license: mit
tags:
- any-to-any
- omega
- omegalabs
- bittensor
- agi
---
This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet.
Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
|
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755585729
|
0xaoyama
| 2025-08-19T06:42:58Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"muscular zealous gorilla",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:42:47Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- muscular zealous gorilla
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
truong1301/deepseek_task7_3
|
truong1301
| 2025-08-19T06:35:31Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"text-generation-inference",
"unsloth",
"qwen2",
"trl",
"en",
"base_model:unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit",
"base_model:finetune:unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit",
"license:apache-2.0",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T06:34:57Z |
---
base_model: unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- qwen2
- trl
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** truong1301
- **License:** apache-2.0
- **Finetuned from model :** unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit
This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
ianmathu/Llama-3.2-3B-Instruct-unsloth-bnb-4bit-alpaca
|
ianmathu
| 2025-08-19T06:34:22Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"unsloth",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T06:33:35Z |
---
library_name: transformers
tags:
- unsloth
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
donoway/ARC-Challenge_Llama-3.2-1B-wgzurb4i
|
donoway
| 2025-08-19T06:32:56Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T06:22:57Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: ARC-Challenge_Llama-3.2-1B-wgzurb4i
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# ARC-Challenge_Llama-3.2-1B-wgzurb4i
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.9193
- Model Preparation Time: 0.0058
- Mdl: 827.9179
- Accumulated Loss: 573.8690
- Correct Preds: 85.0
- Total Preds: 299.0
- Accuracy: 0.2843
- Correct Gen Preds: 1.0
- Gen Accuracy: 0.0033
- Correct Gen Preds 32: 0.0
- Correct Preds 32: 23.0
- Total Labels 32: 64.0
- Accuracy 32: 0.3594
- Gen Accuracy 32: 0.0
- Correct Gen Preds 33: 0.0
- Correct Preds 33: 48.0
- Total Labels 33: 73.0
- Accuracy 33: 0.6575
- Gen Accuracy 33: 0.0
- Correct Gen Preds 34: 0.0
- Correct Preds 34: 1.0
- Total Labels 34: 78.0
- Accuracy 34: 0.0128
- Gen Accuracy 34: 0.0
- Correct Gen Preds 35: 1.0
- Correct Preds 35: 13.0
- Total Labels 35: 83.0
- Accuracy 35: 0.1566
- Gen Accuracy 35: 0.0120
- Correct Gen Preds 36: 0.0
- Correct Preds 36: 0.0
- Total Labels 36: 1.0
- Accuracy 36: 0.0
- Gen Accuracy 36: 0.0
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 112
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|
| No log | 0 | 0 | 1.6389 | 0.0058 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 1.7999 | 1.0 | 1 | 1.6389 | 0.0058 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 1.8225 | 2.0 | 2 | 2.6831 | 0.0058 | 1157.4179 | 802.2610 | 73.0 | 299.0 | 0.2441 | 73.0 | 0.2441 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 73.0 | 73.0 | 73.0 | 1.0 | 1.0 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 1.3461 | 3.0 | 3 | 1.9193 | 0.0058 | 827.9179 | 573.8690 | 85.0 | 299.0 | 0.2843 | 1.0 | 0.0033 | 0.0 | 23.0 | 64.0 | 0.3594 | 0.0 | 0.0 | 48.0 | 73.0 | 0.6575 | 0.0 | 0.0 | 1.0 | 78.0 | 0.0128 | 0.0 | 1.0 | 13.0 | 83.0 | 0.1566 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.9697 | 4.0 | 4 | 1.8682 | 0.0058 | 805.8738 | 558.5892 | 78.0 | 299.0 | 0.2609 | 68.0 | 0.2274 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 53.0 | 61.0 | 73.0 | 0.8356 | 0.7260 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 15.0 | 17.0 | 83.0 | 0.2048 | 0.1807 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.6039 | 5.0 | 5 | 2.2833 | 0.0058 | 984.9399 | 682.7083 | 74.0 | 299.0 | 0.2475 | 54.0 | 0.1806 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 53.0 | 73.0 | 73.0 | 1.0 | 0.7260 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.1602 | 6.0 | 6 | 2.6340 | 0.0058 | 1136.2166 | 787.5654 | 75.0 | 299.0 | 0.2508 | 27.0 | 0.0903 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 25.0 | 71.0 | 73.0 | 0.9726 | 0.3425 | 1.0 | 3.0 | 78.0 | 0.0385 | 0.0128 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0187 | 7.0 | 7 | 2.9628 | 0.0058 | 1278.0297 | 885.8627 | 72.0 | 299.0 | 0.2408 | 17.0 | 0.0569 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 13.0 | 64.0 | 73.0 | 0.8767 | 0.1781 | 3.0 | 4.0 | 78.0 | 0.0513 | 0.0385 | 1.0 | 3.0 | 83.0 | 0.0361 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0013 | 8.0 | 8 | 3.2575 | 0.0058 | 1405.1697 | 973.9894 | 72.0 | 299.0 | 0.2408 | 13.0 | 0.0435 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 9.0 | 62.0 | 73.0 | 0.8493 | 0.1233 | 3.0 | 4.0 | 78.0 | 0.0513 | 0.0385 | 1.0 | 5.0 | 83.0 | 0.0602 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0002 | 9.0 | 9 | 3.4603 | 0.0058 | 1492.6757 | 1034.6439 | 72.0 | 299.0 | 0.2408 | 12.0 | 0.0401 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 61.0 | 73.0 | 0.8356 | 0.0959 | 3.0 | 4.0 | 78.0 | 0.0513 | 0.0385 | 2.0 | 6.0 | 83.0 | 0.0723 | 0.0241 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0001 | 10.0 | 10 | 3.6246 | 0.0058 | 1563.5373 | 1083.7615 | 73.0 | 299.0 | 0.2441 | 13.0 | 0.0435 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 8.0 | 60.0 | 73.0 | 0.8219 | 0.1096 | 3.0 | 5.0 | 78.0 | 0.0641 | 0.0385 | 2.0 | 7.0 | 83.0 | 0.0843 | 0.0241 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 11.0 | 11 | 3.7564 | 0.0058 | 1620.3818 | 1123.1631 | 74.0 | 299.0 | 0.2475 | 12.0 | 0.0401 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 8.0 | 58.0 | 73.0 | 0.7945 | 0.1096 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 12.0 | 12 | 3.8610 | 0.0058 | 1665.5082 | 1154.4423 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 13.0 | 13 | 3.9492 | 0.0058 | 1703.5624 | 1180.8195 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 14.0 | 14 | 4.0205 | 0.0058 | 1734.2980 | 1202.1238 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 15.0 | 15 | 4.0650 | 0.0058 | 1753.4997 | 1215.4334 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 16.0 | 16 | 4.1048 | 0.0058 | 1770.6704 | 1227.3352 | 74.0 | 299.0 | 0.2475 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 17.0 | 17 | 4.1270 | 0.0058 | 1780.2283 | 1233.9602 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 54.0 | 73.0 | 0.7397 | 0.0959 | 3.0 | 8.0 | 78.0 | 0.1026 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 18.0 | 18 | 4.1560 | 0.0058 | 1792.7773 | 1242.6585 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 54.0 | 73.0 | 0.7397 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 19.0 | 19 | 4.1837 | 0.0058 | 1804.7127 | 1250.9315 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 8.0 | 78.0 | 0.1026 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 20.0 | 20 | 4.2006 | 0.0058 | 1811.9983 | 1255.9815 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 54.0 | 73.0 | 0.7397 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 21.0 | 21 | 4.2145 | 0.0058 | 1818.0010 | 1260.1423 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 22.0 | 22 | 4.2290 | 0.0058 | 1824.2639 | 1264.4834 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 23.0 | 23 | 4.2366 | 0.0058 | 1827.5084 | 1266.7323 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 24.0 | 24 | 4.2348 | 0.0058 | 1826.7551 | 1266.2101 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 25.0 | 25 | 4.2429 | 0.0058 | 1830.2455 | 1268.6295 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 26.0 | 26 | 4.2432 | 0.0058 | 1830.3748 | 1268.7191 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 27.0 | 27 | 4.2533 | 0.0058 | 1834.7450 | 1271.7483 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 28.0 | 28 | 4.2639 | 0.0058 | 1839.2829 | 1274.8938 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 29.0 | 29 | 4.2638 | 0.0058 | 1839.2620 | 1274.8792 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 30.0 | 30 | 4.2640 | 0.0058 | 1839.3466 | 1274.9379 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 2.0 | 64.0 | 0.0312 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 31.0 | 31 | 4.2660 | 0.0058 | 1840.1879 | 1275.5211 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 2.0 | 64.0 | 0.0312 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 32.0 | 32 | 4.2655 | 0.0058 | 1839.9913 | 1275.3848 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
| 0.0 | 33.0 | 33 | 4.2671 | 0.0058 | 1840.6805 | 1275.8625 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 2.0 | 64.0 | 0.0312 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
hakimjustbao/blockassist-bc-raging_subtle_wasp_1755583495
|
hakimjustbao
| 2025-08-19T06:32:50Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"raging subtle wasp",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:32:46Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- raging subtle wasp
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
oegbo/gemma3-radiography-processor
|
oegbo
| 2025-08-19T06:31:54Z | 0 | 0 |
transformers
|
[
"transformers",
"unsloth",
"arxiv:1910.09700",
"endpoints_compatible",
"region:us"
] | null | 2025-08-19T06:31:46Z |
---
library_name: transformers
tags:
- unsloth
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
donoway/BoolQ_Llama-3.2-1B-5r42yp3k
|
donoway
| 2025-08-19T06:31:35Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T05:21:38Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: BoolQ_Llama-3.2-1B-5r42yp3k
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# BoolQ_Llama-3.2-1B-5r42yp3k
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 1.5466
- Model Preparation Time: 0.0056
- Mdl: 7296.3329
- Accumulated Loss: 5057.4326
- Correct Preds: 2619.0
- Total Preds: 3270.0
- Accuracy: 0.8009
- Correct Gen Preds: 2594.0
- Gen Accuracy: 0.7933
- Correct Gen Preds 9642: 1748.0
- Correct Preds 9642: 1776.0
- Total Labels 9642: 2026.0
- Accuracy 9642: 0.8766
- Gen Accuracy 9642: 0.8628
- Correct Gen Preds 2822: 838.0
- Correct Preds 2822: 843.0
- Total Labels 2822: 1231.0
- Accuracy 2822: 0.6848
- Gen Accuracy 2822: 0.6807
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 32
- eval_batch_size: 120
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 9642 | Correct Preds 9642 | Total Labels 9642 | Accuracy 9642 | Gen Accuracy 9642 | Correct Gen Preds 2822 | Correct Preds 2822 | Total Labels 2822 | Accuracy 2822 | Gen Accuracy 2822 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:|
| No log | 0 | 0 | 0.7080 | 0.0056 | 3339.8933 | 2315.0376 | 2032.0 | 3270.0 | 0.6214 | 2040.0 | 0.6239 | 2007.0 | 2008.0 | 2026.0 | 0.9911 | 0.9906 | 24.0 | 24.0 | 1231.0 | 0.0195 | 0.0195 |
| 0.4335 | 1.0 | 43 | 0.5330 | 0.0056 | 2514.6645 | 1743.0326 | 2457.0 | 3270.0 | 0.7514 | 2447.0 | 0.7483 | 1619.0 | 1630.0 | 2026.0 | 0.8045 | 0.7991 | 819.0 | 827.0 | 1231.0 | 0.6718 | 0.6653 |
| 0.2605 | 2.0 | 86 | 0.6563 | 0.0056 | 3096.0653 | 2146.0289 | 2450.0 | 3270.0 | 0.7492 | 1969.0 | 0.6021 | 1023.0 | 1427.0 | 2026.0 | 0.7043 | 0.5049 | 939.0 | 1023.0 | 1231.0 | 0.8310 | 0.7628 |
| 0.0158 | 3.0 | 129 | 1.0674 | 0.0056 | 5035.6484 | 3490.4455 | 2536.0 | 3270.0 | 0.7755 | 2378.0 | 0.7272 | 1717.0 | 1872.0 | 2026.0 | 0.9240 | 0.8475 | 654.0 | 664.0 | 1231.0 | 0.5394 | 0.5313 |
| 0.1505 | 4.0 | 172 | 1.4954 | 0.0056 | 7054.8825 | 4890.0719 | 2587.0 | 3270.0 | 0.7911 | 2572.0 | 0.7865 | 1811.0 | 1831.0 | 2026.0 | 0.9038 | 0.8939 | 752.0 | 756.0 | 1231.0 | 0.6141 | 0.6109 |
| 0.0 | 5.0 | 215 | 1.4715 | 0.0056 | 6942.0371 | 4811.8535 | 2611.0 | 3270.0 | 0.7985 | 2575.0 | 0.7875 | 1690.0 | 1727.0 | 2026.0 | 0.8524 | 0.8342 | 877.0 | 884.0 | 1231.0 | 0.7181 | 0.7124 |
| 0.0004 | 6.0 | 258 | 1.5466 | 0.0056 | 7296.3329 | 5057.4326 | 2619.0 | 3270.0 | 0.8009 | 2594.0 | 0.7933 | 1748.0 | 1776.0 | 2026.0 | 0.8766 | 0.8628 | 838.0 | 843.0 | 1231.0 | 0.6848 | 0.6807 |
| 0.0 | 7.0 | 301 | 1.5498 | 0.0056 | 7311.3028 | 5067.8089 | 2617.0 | 3270.0 | 0.8003 | 2587.0 | 0.7911 | 1708.0 | 1739.0 | 2026.0 | 0.8583 | 0.8430 | 871.0 | 878.0 | 1231.0 | 0.7132 | 0.7076 |
| 0.0 | 8.0 | 344 | 1.5583 | 0.0056 | 7351.5687 | 5095.7191 | 2617.0 | 3270.0 | 0.8003 | 2591.0 | 0.7924 | 1708.0 | 1737.0 | 2026.0 | 0.8574 | 0.8430 | 875.0 | 880.0 | 1231.0 | 0.7149 | 0.7108 |
| 0.0 | 9.0 | 387 | 1.5645 | 0.0056 | 7380.4891 | 5115.7652 | 2615.0 | 3270.0 | 0.7997 | 2589.0 | 0.7917 | 1710.0 | 1738.0 | 2026.0 | 0.8578 | 0.8440 | 871.0 | 877.0 | 1231.0 | 0.7124 | 0.7076 |
| 0.0 | 10.0 | 430 | 1.5689 | 0.0056 | 7401.5336 | 5130.3521 | 2615.0 | 3270.0 | 0.7997 | 2593.0 | 0.7930 | 1712.0 | 1738.0 | 2026.0 | 0.8578 | 0.8450 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 |
| 0.0 | 11.0 | 473 | 1.5753 | 0.0056 | 7431.6332 | 5151.2156 | 2618.0 | 3270.0 | 0.8006 | 2595.0 | 0.7936 | 1713.0 | 1738.0 | 2026.0 | 0.8578 | 0.8455 | 873.0 | 880.0 | 1231.0 | 0.7149 | 0.7092 |
| 0.0 | 12.0 | 516 | 1.5764 | 0.0056 | 7436.8304 | 5154.8180 | 2617.0 | 3270.0 | 0.8003 | 2594.0 | 0.7933 | 1714.0 | 1739.0 | 2026.0 | 0.8583 | 0.8460 | 872.0 | 878.0 | 1231.0 | 0.7132 | 0.7084 |
| 0.0 | 13.0 | 559 | 1.5821 | 0.0056 | 7463.8777 | 5173.5658 | 2616.0 | 3270.0 | 0.8 | 2592.0 | 0.7927 | 1712.0 | 1738.0 | 2026.0 | 0.8578 | 0.8450 | 872.0 | 878.0 | 1231.0 | 0.7132 | 0.7084 |
| 0.0 | 14.0 | 602 | 1.5848 | 0.0056 | 7476.3623 | 5182.2194 | 2615.0 | 3270.0 | 0.7997 | 2592.0 | 0.7927 | 1711.0 | 1737.0 | 2026.0 | 0.8574 | 0.8445 | 873.0 | 878.0 | 1231.0 | 0.7132 | 0.7092 |
| 0.0 | 15.0 | 645 | 1.5866 | 0.0056 | 7484.9367 | 5188.1628 | 2617.0 | 3270.0 | 0.8003 | 2595.0 | 0.7936 | 1712.0 | 1738.0 | 2026.0 | 0.8578 | 0.8450 | 874.0 | 879.0 | 1231.0 | 0.7141 | 0.7100 |
| 0.9802 | 16.0 | 688 | 1.5898 | 0.0056 | 7499.9718 | 5198.5843 | 2617.0 | 3270.0 | 0.8003 | 2597.0 | 0.7942 | 1714.0 | 1738.0 | 2026.0 | 0.8578 | 0.8460 | 875.0 | 879.0 | 1231.0 | 0.7141 | 0.7108 |
| 0.0 | 17.0 | 731 | 1.5963 | 0.0056 | 7530.6554 | 5219.8526 | 2616.0 | 3270.0 | 0.8 | 2597.0 | 0.7942 | 1715.0 | 1739.0 | 2026.0 | 0.8583 | 0.8465 | 874.0 | 877.0 | 1231.0 | 0.7124 | 0.7100 |
| 0.0 | 18.0 | 774 | 1.6015 | 0.0056 | 7555.0401 | 5236.7547 | 2613.0 | 3270.0 | 0.7991 | 2592.0 | 0.7927 | 1712.0 | 1737.0 | 2026.0 | 0.8574 | 0.8450 | 872.0 | 876.0 | 1231.0 | 0.7116 | 0.7084 |
| 0.0 | 19.0 | 817 | 1.5991 | 0.0056 | 7543.8108 | 5228.9712 | 2618.0 | 3270.0 | 0.8006 | 2597.0 | 0.7942 | 1713.0 | 1738.0 | 2026.0 | 0.8578 | 0.8455 | 876.0 | 880.0 | 1231.0 | 0.7149 | 0.7116 |
| 0.0 | 20.0 | 860 | 1.6021 | 0.0056 | 7558.1173 | 5238.8877 | 2616.0 | 3270.0 | 0.8 | 2596.0 | 0.7939 | 1715.0 | 1739.0 | 2026.0 | 0.8583 | 0.8465 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 |
| 0.0 | 21.0 | 903 | 1.6036 | 0.0056 | 7565.0561 | 5243.6973 | 2614.0 | 3270.0 | 0.7994 | 2594.0 | 0.7933 | 1713.0 | 1737.0 | 2026.0 | 0.8574 | 0.8455 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 |
| 0.0 | 22.0 | 946 | 1.6052 | 0.0056 | 7572.8549 | 5249.1031 | 2615.0 | 3270.0 | 0.7997 | 2596.0 | 0.7939 | 1713.0 | 1737.0 | 2026.0 | 0.8574 | 0.8455 | 874.0 | 878.0 | 1231.0 | 0.7132 | 0.7100 |
| 0.0 | 23.0 | 989 | 1.6049 | 0.0056 | 7571.4610 | 5248.1369 | 2614.0 | 3270.0 | 0.7994 | 2595.0 | 0.7936 | 1712.0 | 1736.0 | 2026.0 | 0.8569 | 0.8450 | 875.0 | 878.0 | 1231.0 | 0.7132 | 0.7108 |
| 0.0 | 24.0 | 1032 | 1.6037 | 0.0056 | 7565.6381 | 5244.1007 | 2616.0 | 3270.0 | 0.8 | 2597.0 | 0.7942 | 1716.0 | 1739.0 | 2026.0 | 0.8583 | 0.8470 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 |
| 0.0 | 25.0 | 1075 | 1.6096 | 0.0056 | 7593.4658 | 5263.3894 | 2615.0 | 3270.0 | 0.7997 | 2595.0 | 0.7936 | 1714.0 | 1738.0 | 2026.0 | 0.8578 | 0.8460 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 |
| 0.0 | 26.0 | 1118 | 1.6081 | 0.0056 | 7586.3418 | 5258.4514 | 2618.0 | 3270.0 | 0.8006 | 2600.0 | 0.7951 | 1717.0 | 1739.0 | 2026.0 | 0.8583 | 0.8475 | 875.0 | 879.0 | 1231.0 | 0.7141 | 0.7108 |
| 0.0 | 27.0 | 1161 | 1.6060 | 0.0056 | 7576.7036 | 5251.7707 | 2615.0 | 3270.0 | 0.7997 | 2594.0 | 0.7933 | 1712.0 | 1737.0 | 2026.0 | 0.8574 | 0.8450 | 874.0 | 878.0 | 1231.0 | 0.7132 | 0.7100 |
| 0.0 | 28.0 | 1204 | 1.6088 | 0.0056 | 7589.7099 | 5260.7860 | 2617.0 | 3270.0 | 0.8003 | 2598.0 | 0.7945 | 1717.0 | 1739.0 | 2026.0 | 0.8583 | 0.8475 | 873.0 | 878.0 | 1231.0 | 0.7132 | 0.7092 |
| 0.0 | 29.0 | 1247 | 1.6068 | 0.0056 | 7580.2581 | 5254.2345 | 2613.0 | 3270.0 | 0.7991 | 2595.0 | 0.7936 | 1717.0 | 1740.0 | 2026.0 | 0.8588 | 0.8475 | 869.0 | 873.0 | 1231.0 | 0.7092 | 0.7059 |
| 0.0 | 30.0 | 1290 | 1.6088 | 0.0056 | 7589.7604 | 5260.8210 | 2616.0 | 3270.0 | 0.8 | 2599.0 | 0.7948 | 1716.0 | 1738.0 | 2026.0 | 0.8578 | 0.8470 | 875.0 | 878.0 | 1231.0 | 0.7132 | 0.7108 |
| 0.0 | 31.0 | 1333 | 1.6060 | 0.0056 | 7576.4338 | 5251.5837 | 2611.0 | 3270.0 | 0.7985 | 2592.0 | 0.7927 | 1713.0 | 1736.0 | 2026.0 | 0.8569 | 0.8455 | 871.0 | 875.0 | 1231.0 | 0.7108 | 0.7076 |
| 0.0 | 32.0 | 1376 | 1.6103 | 0.0056 | 7596.7626 | 5265.6746 | 2618.0 | 3270.0 | 0.8006 | 2599.0 | 0.7948 | 1716.0 | 1740.0 | 2026.0 | 0.8588 | 0.8470 | 875.0 | 878.0 | 1231.0 | 0.7132 | 0.7108 |
| 0.0 | 33.0 | 1419 | 1.6099 | 0.0056 | 7594.6633 | 5264.2194 | 2612.0 | 3270.0 | 0.7988 | 2594.0 | 0.7933 | 1715.0 | 1737.0 | 2026.0 | 0.8574 | 0.8465 | 871.0 | 875.0 | 1231.0 | 0.7108 | 0.7076 |
| 0.0 | 34.0 | 1462 | 1.6107 | 0.0056 | 7598.6742 | 5266.9996 | 2616.0 | 3270.0 | 0.8 | 2597.0 | 0.7942 | 1716.0 | 1738.0 | 2026.0 | 0.8578 | 0.8470 | 873.0 | 878.0 | 1231.0 | 0.7132 | 0.7092 |
| 0.0 | 35.0 | 1505 | 1.6082 | 0.0056 | 7586.7298 | 5258.7204 | 2617.0 | 3270.0 | 0.8003 | 2601.0 | 0.7954 | 1718.0 | 1738.0 | 2026.0 | 0.8578 | 0.8480 | 874.0 | 879.0 | 1231.0 | 0.7141 | 0.7100 |
| 0.0 | 36.0 | 1548 | 1.6120 | 0.0056 | 7604.7402 | 5271.2042 | 2617.0 | 3270.0 | 0.8003 | 2601.0 | 0.7954 | 1718.0 | 1738.0 | 2026.0 | 0.8578 | 0.8480 | 875.0 | 879.0 | 1231.0 | 0.7141 | 0.7108 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
kjn96/andrea
|
kjn96
| 2025-08-19T06:30:48Z | 0 | 0 |
diffusers
|
[
"diffusers",
"flux",
"lora",
"replicate",
"text-to-image",
"en",
"base_model:black-forest-labs/FLUX.1-dev",
"base_model:adapter:black-forest-labs/FLUX.1-dev",
"license:other",
"region:us"
] |
text-to-image
| 2025-08-19T06:06:49Z |
---
license: other
license_name: flux-1-dev-non-commercial-license
license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md
language:
- en
tags:
- flux
- diffusers
- lora
- replicate
base_model: "black-forest-labs/FLUX.1-dev"
pipeline_tag: text-to-image
# widget:
# - text: >-
# prompt
# output:
# url: https://...
instance_prompt: Andrea
---
# Andrea
<Gallery />
## About this LoRA
This is a [LoRA](https://replicate.com/docs/guides/working-with-loras) for the FLUX.1-dev text-to-image model. It can be used with diffusers or ComfyUI.
It was trained on [Replicate](https://replicate.com/) using AI toolkit: https://replicate.com/ostris/flux-dev-lora-trainer/train
## Trigger words
You should use `Andrea` to trigger the image generation.
## Run this LoRA with an API using Replicate
```py
import replicate
input = {
"prompt": "Andrea",
"lora_weights": "https://huggingface.co/kjn96/andrea/resolve/main/lora.safetensors"
}
output = replicate.run(
"black-forest-labs/flux-dev-lora",
input=input
)
for index, item in enumerate(output):
with open(f"output_{index}.webp", "wb") as file:
file.write(item.read())
```
## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers)
```py
from diffusers import AutoPipelineForText2Image
import torch
pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda')
pipeline.load_lora_weights('kjn96/andrea', weight_name='lora.safetensors')
image = pipeline('Andrea').images[0]
```
For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters)
## Training details
- Steps: 1000
- Learning rate: 0.0004
- LoRA rank: 16
## Contribute your own examples
You can use the [community tab](https://huggingface.co/kjn96/andrea/discussions) to add images that show off what you’ve made with this LoRA.
|
harikrushna2272/SmolGRPO-135M
|
harikrushna2272
| 2025-08-19T06:28:48Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"GRPO",
"Reasoning-Course",
"conversational",
"arxiv:1910.09700",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T06:28:14Z |
---
library_name: transformers
tags:
- GRPO
- Reasoning-Course
---
# Model Card for Model ID
<!-- Provide a quick summary of what the model is/does. -->
## Model Details
### Model Description
<!-- Provide a longer summary of what this model is. -->
This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated.
- **Developed by:** [More Information Needed]
- **Funded by [optional]:** [More Information Needed]
- **Shared by [optional]:** [More Information Needed]
- **Model type:** [More Information Needed]
- **Language(s) (NLP):** [More Information Needed]
- **License:** [More Information Needed]
- **Finetuned from model [optional]:** [More Information Needed]
### Model Sources [optional]
<!-- Provide the basic links for the model. -->
- **Repository:** [More Information Needed]
- **Paper [optional]:** [More Information Needed]
- **Demo [optional]:** [More Information Needed]
## Uses
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
### Direct Use
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
[More Information Needed]
### Downstream Use [optional]
<!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app -->
[More Information Needed]
### Out-of-Scope Use
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
[More Information Needed]
## Bias, Risks, and Limitations
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
[More Information Needed]
### Recommendations
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
## How to Get Started with the Model
Use the code below to get started with the model.
[More Information Needed]
## Training Details
### Training Data
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
[More Information Needed]
### Training Procedure
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
#### Preprocessing [optional]
[More Information Needed]
#### Training Hyperparameters
- **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
#### Speeds, Sizes, Times [optional]
<!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
[More Information Needed]
## Evaluation
<!-- This section describes the evaluation protocols and provides the results. -->
### Testing Data, Factors & Metrics
#### Testing Data
<!-- This should link to a Dataset Card if possible. -->
[More Information Needed]
#### Factors
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
[More Information Needed]
#### Metrics
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
[More Information Needed]
### Results
[More Information Needed]
#### Summary
## Model Examination [optional]
<!-- Relevant interpretability work for the model goes here -->
[More Information Needed]
## Environmental Impact
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
- **Hardware Type:** [More Information Needed]
- **Hours used:** [More Information Needed]
- **Cloud Provider:** [More Information Needed]
- **Compute Region:** [More Information Needed]
- **Carbon Emitted:** [More Information Needed]
## Technical Specifications [optional]
### Model Architecture and Objective
[More Information Needed]
### Compute Infrastructure
[More Information Needed]
#### Hardware
[More Information Needed]
#### Software
[More Information Needed]
## Citation [optional]
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
**BibTeX:**
[More Information Needed]
**APA:**
[More Information Needed]
## Glossary [optional]
<!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
[More Information Needed]
## More Information [optional]
[More Information Needed]
## Model Card Authors [optional]
[More Information Needed]
## Model Card Contact
[More Information Needed]
|
hwang2006/finetuned-korean-gpt-oss-20b
|
hwang2006
| 2025-08-19T06:27:35Z | 0 | 0 |
peft
|
[
"peft",
"safetensors",
"unsloth",
"lora",
"korean",
"education",
"textbook",
"gpt-oss",
"한국어",
"교육",
"파인튜닝",
"text-generation",
"conversational",
"ko",
"dataset:maywell/korean_textbooks",
"base_model:unsloth/gpt-oss-20b",
"base_model:adapter:unsloth/gpt-oss-20b",
"license:apache-2.0",
"region:us"
] |
text-generation
| 2025-08-19T06:27:31Z |
---
license: apache-2.0
base_model: unsloth/gpt-oss-20b
tags:
- unsloth
- lora
- korean
- education
- textbook
- gpt-oss
- 한국어
- 교육
- 파인튜닝
language:
- ko
datasets:
- maywell/korean_textbooks
library_name: peft
pipeline_tag: text-generation
---
# 한국어 교육 자료 파인튜닝 모델 (Korean Textbook Fine-tuned Model)
## 📚 모델 소개
이 모델은 **unsloth/gpt-oss-20b**를 기반으로 **maywell/korean_textbooks** 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다.
LoRA(Low-Rank Adaptation) 기술을 사용하여 효율적으로 학습되었으며, 한국어 교육 콘텐츠 생성에 특화되어 있습니다.
## 🎯 주요 특징
- **베이스 모델**: unsloth/gpt-oss-20b (20B 파라미터)
- **훈련 방법**: LoRA (Low-Rank Adaptation)
- **특화 분야**: 한국어 교육 콘텐츠 생성
- **데이터셋**: maywell/korean_textbooks
- **언어**: 한국어 (Korean)
## 🚀 사용 방법
### 모델 로드
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
# 베이스 모델 로드
base_model = AutoModelForCausalLM.from_pretrained(
"unsloth/gpt-oss-20b",
torch_dtype=torch.float16,
device_map="auto",
trust_remote_code=True
)
# LoRA 어댑터 로드
model = PeftModel.from_pretrained(base_model, "hwang2006/finetuned-korean-gpt-oss-20b")
# 토크나이저 로드
tokenizer = AutoTokenizer.from_pretrained("hwang2006/finetuned-korean-gpt-oss-20b")
```
### 사용 예시
```python
messages = [
{"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."},
{"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."}
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt",
return_dict=True
).to(model.device)
with torch.no_grad():
outputs = model.generate(
**inputs,
max_new_tokens=512,
do_sample=True,
temperature=0.7,
top_p=0.9,
pad_token_id=tokenizer.eos_token_id
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```
## 📊 훈련 정보
- **베이스 모델**: unsloth/gpt-oss-20b-unsloth-bnb-4bit
- **훈련 스텝**: 30 steps
- **LoRA Rank**: 8
- **LoRA Alpha**: 16
- **타겟 모듈**: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
- **데이터셋**: maywell/korean_textbooks
## 🎓 활용 분야
이 모델은 다음 분야에서 우수한 성능을 보입니다:
### 수학 (Mathematics)
- 기초 수학 개념 설명
- 대수, 기하, 미적분 문제 해설
- 수학 공식의 직관적 이해
### 과학 (Science)
- 물리, 화학, 생물학 원리 설명
- 실험 과정 및 결과 해석
- 과학적 현상의 이해
### 언어 (Language)
- 한국어 문법 및 어휘 설명
- 문학 작품 분석 및 해석
- 글쓰기 기법 안내
### 사회 (Social Studies)
- 역사적 사건 및 인물 설명
- 지리적 개념 및 현상
- 사회 제도 및 문화 이해
## 💻 시스템 요구사항
- **GPU 메모리**: 최소 16GB (권장 24GB+)
- **시스템 RAM**: 최소 16GB
- **Python**: 3.8+
- **주요 라이브러리**: transformers, peft, torch
## ⚠️ 주의사항
1. **교육 목적 특화**: 이 모델은 교육 콘텐츠 생성에 최적화되어 있습니다.
2. **한국어 중심**: 한국어 외의 언어에서는 성능이 제한적일 수 있습니다.
3. **사실 확인 필요**: 생성된 내용은 항상 검토하고 사실 확인이 필요합니다.
4. **윤리적 사용**: 교육적이고 건전한 목적으로만 사용해주세요.
## 🔗 관련 링크
- **베이스 모델**: [unsloth/gpt-oss-20b](https://huggingface.co/unsloth/gpt-oss-20b)
- **데이터셋**: [maywell/korean_textbooks](https://huggingface.co/datasets/maywell/korean_textbooks)
## 📜 라이선스
이 모델은 베이스 모델인 unsloth/gpt-oss-20b의 라이선스를 따릅니다.
|
Medved444/blockassist-bc-bellowing_finicky_manatee_1755583519
|
Medved444
| 2025-08-19T06:24:38Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"bellowing finicky manatee",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:24:24Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- bellowing finicky manatee
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
quantumxnode/blockassist-bc-dormant_peckish_seahorse_1755582934
|
quantumxnode
| 2025-08-19T06:21:45Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"dormant peckish seahorse",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:21:41Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- dormant peckish seahorse
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755584377
|
IvanJAjebu
| 2025-08-19T06:21:20Z | 0 | 0 | null |
[
"gensyn",
"blockassist",
"gensyn-blockassist",
"minecraft",
"thorny slender capybara",
"arxiv:2504.07091",
"region:us"
] | null | 2025-08-19T06:20:56Z |
---
tags:
- gensyn
- blockassist
- gensyn-blockassist
- minecraft
- thorny slender capybara
---
# Gensyn BlockAssist
Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
|
donoway/ARC-Easy_Llama-3.2-1B-blvojtf1
|
donoway
| 2025-08-19T06:19:09Z | 0 | 0 |
transformers
|
[
"transformers",
"safetensors",
"llama",
"text-generation",
"generated_from_trainer",
"base_model:meta-llama/Llama-3.2-1B",
"base_model:finetune:meta-llama/Llama-3.2-1B",
"license:llama3.2",
"autotrain_compatible",
"text-generation-inference",
"endpoints_compatible",
"region:us"
] |
text-generation
| 2025-08-19T06:07:11Z |
---
library_name: transformers
license: llama3.2
base_model: meta-llama/Llama-3.2-1B
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: ARC-Easy_Llama-3.2-1B-blvojtf1
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# ARC-Easy_Llama-3.2-1B-blvojtf1
This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 2.6796
- Model Preparation Time: 0.006
- Mdl: 2203.5395
- Accumulated Loss: 1527.3772
- Correct Preds: 389.0
- Total Preds: 570.0
- Accuracy: 0.6825
- Correct Gen Preds: 327.0
- Gen Accuracy: 0.5737
- Correct Gen Preds 32: 62.0
- Correct Preds 32: 98.0
- Total Labels 32: 158.0
- Accuracy 32: 0.6203
- Gen Accuracy 32: 0.3924
- Correct Gen Preds 33: 95.0
- Correct Preds 33: 105.0
- Total Labels 33: 152.0
- Accuracy 33: 0.6908
- Gen Accuracy 33: 0.625
- Correct Gen Preds 34: 100.0
- Correct Preds 34: 108.0
- Total Labels 34: 142.0
- Accuracy 34: 0.7606
- Gen Accuracy 34: 0.7042
- Correct Gen Preds 35: 70.0
- Correct Preds 35: 78.0
- Total Labels 35: 118.0
- Accuracy 35: 0.6610
- Gen Accuracy 35: 0.5932
- Correct Gen Preds 36: 0.0
- Correct Preds 36: 0.0
- Total Labels 36: 0.0
- Accuracy 36: 0.0
- Gen Accuracy 36: 0.0
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 112
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.01
- num_epochs: 100
### Training results
| Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 |
|:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|
| No log | 0 | 0 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.3822 | 1.0 | 1 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 1.3877 | 2.0 | 2 | 2.3794 | 0.006 | 1956.6844 | 1356.2703 | 153.0 | 570.0 | 0.2684 | 153.0 | 0.2684 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 152.0 | 152.0 | 152.0 | 1.0 | 1.0 | 1.0 | 1.0 | 142.0 | 0.0070 | 0.0070 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 2.1356 | 3.0 | 3 | 1.4237 | 0.006 | 1170.7407 | 811.4956 | 203.0 | 570.0 | 0.3561 | 203.0 | 0.3561 | 89.0 | 89.0 | 158.0 | 0.5633 | 0.5633 | 114.0 | 114.0 | 152.0 | 0.75 | 0.75 | 0.0 | 0.0 | 142.0 | 0.0 | 0.0 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.8074 | 4.0 | 4 | 1.6417 | 0.006 | 1350.0078 | 935.7541 | 216.0 | 570.0 | 0.3789 | 216.0 | 0.3789 | 155.0 | 155.0 | 158.0 | 0.9810 | 0.9810 | 6.0 | 6.0 | 152.0 | 0.0395 | 0.0395 | 38.0 | 38.0 | 142.0 | 0.2676 | 0.2676 | 17.0 | 17.0 | 118.0 | 0.1441 | 0.1441 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.3151 | 5.0 | 5 | 1.1711 | 0.006 | 963.0449 | 667.5319 | 358.0 | 570.0 | 0.6281 | 351.0 | 0.6158 | 105.0 | 108.0 | 158.0 | 0.6835 | 0.6646 | 68.0 | 71.0 | 152.0 | 0.4671 | 0.4474 | 100.0 | 100.0 | 142.0 | 0.7042 | 0.7042 | 78.0 | 79.0 | 118.0 | 0.6695 | 0.6610 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0313 | 6.0 | 6 | 1.8008 | 0.006 | 1480.8473 | 1026.4451 | 384.0 | 570.0 | 0.6737 | 333.0 | 0.5842 | 68.0 | 99.0 | 158.0 | 0.6266 | 0.4304 | 91.0 | 101.0 | 152.0 | 0.6645 | 0.5987 | 101.0 | 108.0 | 142.0 | 0.7606 | 0.7113 | 73.0 | 76.0 | 118.0 | 0.6441 | 0.6186 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0007 | 7.0 | 7 | 2.6796 | 0.006 | 2203.5395 | 1527.3772 | 389.0 | 570.0 | 0.6825 | 327.0 | 0.5737 | 62.0 | 98.0 | 158.0 | 0.6203 | 0.3924 | 95.0 | 105.0 | 152.0 | 0.6908 | 0.625 | 100.0 | 108.0 | 142.0 | 0.7606 | 0.7042 | 70.0 | 78.0 | 118.0 | 0.6610 | 0.5932 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 8.0 | 8 | 3.2573 | 0.006 | 2678.6154 | 1856.6747 | 382.0 | 570.0 | 0.6702 | 317.0 | 0.5561 | 56.0 | 98.0 | 158.0 | 0.6203 | 0.3544 | 99.0 | 106.0 | 152.0 | 0.6974 | 0.6513 | 95.0 | 104.0 | 142.0 | 0.7324 | 0.6690 | 67.0 | 74.0 | 118.0 | 0.6271 | 0.5678 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 9.0 | 9 | 3.6049 | 0.006 | 2964.4270 | 2054.7842 | 378.0 | 570.0 | 0.6632 | 308.0 | 0.5404 | 51.0 | 95.0 | 158.0 | 0.6013 | 0.3228 | 101.0 | 106.0 | 152.0 | 0.6974 | 0.6645 | 91.0 | 103.0 | 142.0 | 0.7254 | 0.6408 | 65.0 | 74.0 | 118.0 | 0.6271 | 0.5508 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 10.0 | 10 | 3.8133 | 0.006 | 3135.8227 | 2173.5867 | 376.0 | 570.0 | 0.6596 | 300.0 | 0.5263 | 46.0 | 94.0 | 158.0 | 0.5949 | 0.2911 | 102.0 | 108.0 | 152.0 | 0.7105 | 0.6711 | 88.0 | 103.0 | 142.0 | 0.7254 | 0.6197 | 64.0 | 71.0 | 118.0 | 0.6017 | 0.5424 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 11.0 | 11 | 3.9897 | 0.006 | 3280.8607 | 2274.1194 | 374.0 | 570.0 | 0.6561 | 292.0 | 0.5123 | 43.0 | 94.0 | 158.0 | 0.5949 | 0.2722 | 103.0 | 109.0 | 152.0 | 0.7171 | 0.6776 | 85.0 | 102.0 | 142.0 | 0.7183 | 0.5986 | 61.0 | 69.0 | 118.0 | 0.5847 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 12.0 | 12 | 4.0979 | 0.006 | 3369.8531 | 2335.8042 | 371.0 | 570.0 | 0.6509 | 283.0 | 0.4965 | 39.0 | 93.0 | 158.0 | 0.5886 | 0.2468 | 101.0 | 107.0 | 152.0 | 0.7039 | 0.6645 | 81.0 | 103.0 | 142.0 | 0.7254 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 13.0 | 13 | 4.1798 | 0.006 | 3437.2348 | 2382.5096 | 374.0 | 570.0 | 0.6561 | 284.0 | 0.4982 | 39.0 | 94.0 | 158.0 | 0.5949 | 0.2468 | 101.0 | 109.0 | 152.0 | 0.7171 | 0.6645 | 82.0 | 103.0 | 142.0 | 0.7254 | 0.5775 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 14.0 | 14 | 4.2962 | 0.006 | 3532.8950 | 2448.8162 | 370.0 | 570.0 | 0.6491 | 281.0 | 0.4930 | 38.0 | 91.0 | 158.0 | 0.5759 | 0.2405 | 100.0 | 109.0 | 152.0 | 0.7171 | 0.6579 | 81.0 | 102.0 | 142.0 | 0.7183 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 15.0 | 15 | 4.3080 | 0.006 | 3542.6472 | 2455.5760 | 371.0 | 570.0 | 0.6509 | 281.0 | 0.4930 | 37.0 | 91.0 | 158.0 | 0.5759 | 0.2342 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 16.0 | 16 | 4.3532 | 0.006 | 3579.7884 | 2481.3203 | 372.0 | 570.0 | 0.6526 | 281.0 | 0.4930 | 36.0 | 92.0 | 158.0 | 0.5823 | 0.2278 | 100.0 | 109.0 | 152.0 | 0.7171 | 0.6579 | 83.0 | 103.0 | 142.0 | 0.7254 | 0.5845 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 17.0 | 17 | 4.3767 | 0.006 | 3599.1354 | 2494.7306 | 372.0 | 570.0 | 0.6526 | 280.0 | 0.4912 | 35.0 | 92.0 | 158.0 | 0.5823 | 0.2215 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 18.0 | 18 | 4.4285 | 0.006 | 3641.7234 | 2524.2503 | 371.0 | 570.0 | 0.6509 | 278.0 | 0.4877 | 36.0 | 91.0 | 158.0 | 0.5759 | 0.2278 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 81.0 | 102.0 | 142.0 | 0.7183 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 19.0 | 19 | 4.4736 | 0.006 | 3678.7926 | 2549.9447 | 371.0 | 570.0 | 0.6509 | 277.0 | 0.4860 | 35.0 | 91.0 | 158.0 | 0.5759 | 0.2215 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 80.0 | 102.0 | 142.0 | 0.7183 | 0.5634 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 20.0 | 20 | 4.4894 | 0.006 | 3691.8132 | 2558.9699 | 370.0 | 570.0 | 0.6491 | 276.0 | 0.4842 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 81.0 | 102.0 | 142.0 | 0.7183 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 21.0 | 21 | 4.4970 | 0.006 | 3698.0504 | 2563.2932 | 371.0 | 570.0 | 0.6509 | 277.0 | 0.4860 | 35.0 | 91.0 | 158.0 | 0.5759 | 0.2215 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 82.0 | 102.0 | 142.0 | 0.7183 | 0.5775 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 22.0 | 22 | 4.5302 | 0.006 | 3725.3769 | 2582.2345 | 369.0 | 570.0 | 0.6474 | 276.0 | 0.4842 | 34.0 | 88.0 | 158.0 | 0.5570 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 82.0 | 103.0 | 142.0 | 0.7254 | 0.5775 | 61.0 | 68.0 | 118.0 | 0.5763 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 23.0 | 23 | 4.5179 | 0.006 | 3715.2392 | 2575.2076 | 367.0 | 570.0 | 0.6439 | 277.0 | 0.4860 | 35.0 | 89.0 | 158.0 | 0.5633 | 0.2215 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 82.0 | 102.0 | 142.0 | 0.7183 | 0.5775 | 60.0 | 66.0 | 118.0 | 0.5593 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 24.0 | 24 | 4.5215 | 0.006 | 3718.1928 | 2577.2548 | 371.0 | 570.0 | 0.6509 | 277.0 | 0.4860 | 34.0 | 91.0 | 158.0 | 0.5759 | 0.2152 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 84.0 | 102.0 | 142.0 | 0.7183 | 0.5915 | 61.0 | 68.0 | 118.0 | 0.5763 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 25.0 | 25 | 4.5525 | 0.006 | 3743.7136 | 2594.9445 | 367.0 | 570.0 | 0.6439 | 278.0 | 0.4877 | 34.0 | 89.0 | 158.0 | 0.5633 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 84.0 | 102.0 | 142.0 | 0.7183 | 0.5915 | 61.0 | 66.0 | 118.0 | 0.5593 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 26.0 | 26 | 4.5539 | 0.006 | 3744.8645 | 2595.7423 | 369.0 | 570.0 | 0.6474 | 278.0 | 0.4877 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 61.0 | 67.0 | 118.0 | 0.5678 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 27.0 | 27 | 4.5578 | 0.006 | 3748.0692 | 2597.9636 | 368.0 | 570.0 | 0.6456 | 277.0 | 0.4860 | 35.0 | 89.0 | 158.0 | 0.5633 | 0.2215 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 84.0 | 103.0 | 142.0 | 0.7254 | 0.5915 | 60.0 | 66.0 | 118.0 | 0.5593 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 28.0 | 28 | 4.5636 | 0.006 | 3752.8202 | 2601.2567 | 368.0 | 570.0 | 0.6456 | 279.0 | 0.4895 | 36.0 | 90.0 | 158.0 | 0.5696 | 0.2278 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 61.0 | 66.0 | 118.0 | 0.5593 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 29.0 | 29 | 4.5600 | 0.006 | 3749.8841 | 2599.2216 | 369.0 | 570.0 | 0.6474 | 278.0 | 0.4877 | 34.0 | 89.0 | 158.0 | 0.5633 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 84.0 | 103.0 | 142.0 | 0.7254 | 0.5915 | 61.0 | 67.0 | 118.0 | 0.5678 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 30.0 | 30 | 4.5483 | 0.006 | 3740.2175 | 2592.5212 | 370.0 | 570.0 | 0.6491 | 277.0 | 0.4860 | 34.0 | 90.0 | 158.0 | 0.5696 | 0.2152 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 85.0 | 103.0 | 142.0 | 0.7254 | 0.5986 | 60.0 | 67.0 | 118.0 | 0.5678 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 31.0 | 31 | 4.5859 | 0.006 | 3771.1699 | 2613.9758 | 369.0 | 570.0 | 0.6474 | 277.0 | 0.4860 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 82.0 | 103.0 | 142.0 | 0.7254 | 0.5775 | 61.0 | 66.0 | 118.0 | 0.5593 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 32.0 | 32 | 4.5906 | 0.006 | 3775.0048 | 2616.6339 | 367.0 | 570.0 | 0.6439 | 278.0 | 0.4877 | 34.0 | 89.0 | 158.0 | 0.5633 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 86.0 | 103.0 | 142.0 | 0.7254 | 0.6056 | 59.0 | 65.0 | 118.0 | 0.5508 | 0.5 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 33.0 | 33 | 4.5403 | 0.006 | 3733.6585 | 2587.9749 | 373.0 | 570.0 | 0.6544 | 282.0 | 0.4947 | 35.0 | 92.0 | 158.0 | 0.5823 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 86.0 | 103.0 | 142.0 | 0.7254 | 0.6056 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 34.0 | 34 | 4.5964 | 0.006 | 3779.8051 | 2619.9612 | 368.0 | 570.0 | 0.6456 | 278.0 | 0.4877 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 84.0 | 101.0 | 142.0 | 0.7113 | 0.5915 | 60.0 | 67.0 | 118.0 | 0.5678 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 35.0 | 35 | 4.5792 | 0.006 | 3765.6775 | 2610.1687 | 369.0 | 570.0 | 0.6474 | 279.0 | 0.4895 | 34.0 | 91.0 | 158.0 | 0.5759 | 0.2152 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 85.0 | 103.0 | 142.0 | 0.7254 | 0.5986 | 60.0 | 65.0 | 118.0 | 0.5508 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 36.0 | 36 | 4.5957 | 0.006 | 3779.2287 | 2619.5617 | 371.0 | 570.0 | 0.6509 | 283.0 | 0.4965 | 36.0 | 91.0 | 158.0 | 0.5759 | 0.2278 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 85.0 | 102.0 | 142.0 | 0.7183 | 0.5986 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
| 0.0 | 37.0 | 37 | 4.5726 | 0.006 | 3760.2223 | 2606.3875 | 370.0 | 570.0 | 0.6491 | 283.0 | 0.4965 | 36.0 | 90.0 | 158.0 | 0.5696 | 0.2278 | 101.0 | 110.0 | 152.0 | 0.7237 | 0.6645 | 85.0 | 103.0 | 142.0 | 0.7254 | 0.5986 | 61.0 | 67.0 | 118.0 | 0.5678 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
### Framework versions
- Transformers 4.51.3
- Pytorch 2.6.0+cu124
- Datasets 3.5.0
- Tokenizers 0.21.1
|
KCS97/grey_sloth_plushie
|
KCS97
| 2025-08-19T06:18:25Z | 0 | 0 |
diffusers
|
[
"diffusers",
"tensorboard",
"safetensors",
"text-to-image",
"dreambooth",
"diffusers-training",
"stable-diffusion",
"stable-diffusion-diffusers",
"base_model:stable-diffusion-v1-5/stable-diffusion-v1-5",
"base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5",
"license:creativeml-openrail-m",
"autotrain_compatible",
"endpoints_compatible",
"diffusers:StableDiffusionPipeline",
"region:us"
] |
text-to-image
| 2025-08-19T06:08:21Z |
---
base_model: stable-diffusion-v1-5/stable-diffusion-v1-5
library_name: diffusers
license: creativeml-openrail-m
inference: true
instance_prompt: a photo of sks plushie
tags:
- text-to-image
- dreambooth
- diffusers-training
- stable-diffusion
- stable-diffusion-diffusers
---
<!-- This model card has been generated automatically according to the information the training script had access to. You
should probably proofread and complete it, then remove this comment. -->
# DreamBooth - KCS97/grey_sloth_plushie
This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks plushie using [DreamBooth](https://dreambooth.github.io/).
You can find some example images in the following.
DreamBooth for the text encoder was enabled: False.
## Intended uses & limitations
#### How to use
```python
# TODO: add an example code snippet for running this diffusion pipeline
```
#### Limitations and bias
[TODO: provide examples of latent issues and potential remediations]
## Training details
[TODO: describe the data used to train the model]
|
subsectmusic/qwriko4b-64k-2507-instruct
|
subsectmusic
| 2025-08-19T06:15:30Z | 0 | 0 |
transformers
|
[
"transformers",
"gguf",
"qwen3",
"text-generation-inference",
"unsloth",
"en",
"license:apache-2.0",
"endpoints_compatible",
"region:us",
"conversational"
] | null | 2025-08-19T05:07:14Z |
---
base_model: unsloth/qwen3-4b-instruct-2507-unsloth-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- qwen3
- gguf
license: apache-2.0
language:
- en
---
# Uploaded model
- **Developed by:** subsectmusic
- **License:** apache-2.0
- **Finetuned from model :** unsloth/qwen3-4b-instruct-2507-unsloth-bnb-4bit
This qwen3 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
Subsets and Splits
Filtered Qwen2.5 Distill Models
Identifies specific configurations of models by filtering cards that contain 'distill', 'qwen2.5', '7b' while excluding certain base models and incorrect model ID patterns, uncovering unique model variants.
Filtered Model Cards Count
Finds the count of entries with specific card details that include 'distill', 'qwen2.5', '7b' but exclude certain base models, revealing valuable insights about the dataset's content distribution.
Filtered Distill Qwen 7B Models
Filters for specific card entries containing 'distill', 'qwen', and '7b', excluding certain strings and patterns, to identify relevant model configurations.
Filtered Qwen-7b Model Cards
The query performs a detailed filtering based on specific keywords and excludes certain entries, which could be useful for identifying a specific subset of cards but does not provide deeper insights or trends.
Filtered Qwen 7B Model Cards
The query filters for specific terms related to "distilled" or "distill", "qwen", and "7b" in the 'card' column but excludes certain base models, providing a limited set of entries for further inspection.
Qwen 7B Distilled Models
The query provides a basic filtering of records to find specific card names that include keywords related to distilled Qwen 7b models, excluding a particular base model, which gives limited insight but helps in focusing on relevant entries.
Qwen 7B Distilled Model Cards
The query filters data based on specific keywords in the modelId and card fields, providing limited insight primarily useful for locating specific entries rather than revealing broad patterns or trends.
Qwen 7B Distilled Models
Finds all entries containing the terms 'distilled', 'qwen', and '7b' in a case-insensitive manner, providing a filtered set of records but without deeper analysis.
Distilled Qwen 7B Models
The query filters for specific model IDs containing 'distilled', 'qwen', and '7b', providing a basic retrieval of relevant entries but without deeper analysis or insight.
Filtered Model Cards with Distill Qwen2.
Filters and retrieves records containing specific keywords in the card description while excluding certain phrases, providing a basic count of relevant entries.
Filtered Model Cards with Distill Qwen 7
The query filters specific variations of card descriptions containing 'distill', 'qwen', and '7b' while excluding a particular base model, providing limited but specific data retrieval.
Distill Qwen 7B Model Cards
The query filters and retrieves rows where the 'card' column contains specific keywords ('distill', 'qwen', and '7b'), providing a basic filter result that can help in identifying specific entries.