modelId
stringlengths
5
139
author
stringlengths
2
42
last_modified
timestamp[us, tz=UTC]date
2020-02-15 11:33:14
2025-09-12 00:41:42
downloads
int64
0
223M
likes
int64
0
11.7k
library_name
stringclasses
555 values
tags
listlengths
1
4.05k
pipeline_tag
stringclasses
55 values
createdAt
timestamp[us, tz=UTC]date
2022-03-02 23:29:04
2025-09-12 00:40:24
card
stringlengths
11
1.01M
nattkorat/trigger_id
nattkorat
2025-08-19T08:29:25Z
16
0
transformers
[ "transformers", "safetensors", "xlm-roberta", "token-classification", "generated_from_trainer", "base_model:FacebookAI/xlm-roberta-base", "base_model:finetune:FacebookAI/xlm-roberta-base", "license:mit", "autotrain_compatible", "endpoints_compatible", "region:us" ]
token-classification
2025-07-23T02:57:09Z
--- library_name: transformers license: mit base_model: xlm-roberta-base tags: - generated_from_trainer metrics: - accuracy - precision - recall - f1 model-index: - name: trigger_id results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # trigger_id This model is a fine-tuned version of [xlm-roberta-base](https://huggingface.co/xlm-roberta-base) on the None dataset. It achieves the following results on the evaluation set: - Loss: 0.0634 - Accuracy: 0.9780 - Precision: 0.7114 - Recall: 0.6376 - F1: 0.6725 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 32 - eval_batch_size: 32 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - num_epochs: 5 ### Training results | Training Loss | Epoch | Step | Validation Loss | Accuracy | Precision | Recall | F1 | |:-------------:|:-----:|:----:|:---------------:|:--------:|:---------:|:------:|:------:| | No log | 1.0 | 38 | 0.1618 | 0.9513 | 0.0 | 0.0 | 0.0 | | No log | 2.0 | 76 | 0.0873 | 0.9742 | 0.7385 | 0.5685 | 0.6424 | | No log | 3.0 | 114 | 0.0693 | 0.9773 | 0.7357 | 0.5968 | 0.6590 | | No log | 4.0 | 152 | 0.0665 | 0.9771 | 0.6768 | 0.6777 | 0.6773 | | No log | 5.0 | 190 | 0.0634 | 0.9780 | 0.7114 | 0.6376 | 0.6725 | ### Framework versions - Transformers 4.52.4 - Pytorch 2.7.1+cu126 - Datasets 4.0.0 - Tokenizers 0.21.1
aleebaster/blockassist-bc-sly_eager_boar_1755590593
aleebaster
2025-08-19T08:28:17Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "sly eager boar", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:28:10Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - sly eager boar --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Jansenhbar/bert_cased_dummy-model
Jansenhbar
2025-08-19T08:28:02Z
0
0
transformers
[ "transformers", "safetensors", "bert", "fill-mask", "arxiv:1910.09700", "autotrain_compatible", "endpoints_compatible", "region:us" ]
fill-mask
2025-08-19T08:27:46Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
hoan17/saving_LOe400s16_scratch_8
hoan17
2025-08-19T08:25:31Z
0
0
diffusers
[ "diffusers", "safetensors", "trl", "o2o", "reinforcement-learning", "text-to-image", "stable-diffusion", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "diffusers:StableDiffusionPipeline", "region:us" ]
text-to-image
2025-08-19T08:25:02Z
--- license: apache-2.0 tags: - trl - o2o - diffusers - reinforcement-learning - text-to-image - stable-diffusion --- # TRL O2O Model This is a diffusion model that has been fine-tuned with reinforcement learning to guide the model outputs according to a value, function, or human feedback. The model can be used for image generation conditioned with text.
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755591883
0xaoyama
2025-08-19T08:25:17Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:25:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
sungkwan2/segformer-b0-scene-parse-150
sungkwan2
2025-08-19T08:24:07Z
2
0
transformers
[ "transformers", "tensorboard", "safetensors", "segformer", "generated_from_trainer", "base_model:nvidia/mit-b0", "base_model:finetune:nvidia/mit-b0", "license:other", "endpoints_compatible", "region:us" ]
null
2025-04-23T12:00:05Z
--- library_name: transformers license: other base_model: nvidia/mit-b0 tags: - generated_from_trainer model-index: - name: segformer-b0-scene-parse-150 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # segformer-b0-scene-parse-150 This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 4.1486 - Mean Iou: 0.0000 - Mean Accuracy: 0.0001 - Overall Accuracy: 0.0001 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 6e-05 - train_batch_size: 2 - eval_batch_size: 2 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - num_epochs: 2 ### Training results | Training Loss | Epoch | Step | Validation Loss | Mean Iou | Mean Accuracy | Overall Accuracy | |:-------------:|:-----:|:----:|:---------------:|:--------:|:-------------:|:----------------:| | 4.9721 | 0.025 | 1 | 5.0059 | 0.0007 | 0.0148 | 0.0063 | | 4.9475 | 0.05 | 2 | 5.0027 | 0.0007 | 0.0140 | 0.0060 | | 4.9457 | 0.075 | 3 | 4.9996 | 0.0008 | 0.0144 | 0.0063 | | 4.9923 | 0.1 | 4 | 4.9959 | 0.0008 | 0.0142 | 0.0063 | | 5.0016 | 0.125 | 5 | 4.9912 | 0.0009 | 0.0153 | 0.0069 | | 4.9753 | 0.15 | 6 | 4.9876 | 0.0008 | 0.0149 | 0.0070 | | 4.8799 | 0.175 | 7 | 4.9824 | 0.0006 | 0.0108 | 0.0051 | | 4.9689 | 0.2 | 8 | 4.9767 | 0.0006 | 0.0095 | 0.0045 | | 4.9046 | 0.225 | 9 | 4.9697 | 0.0006 | 0.0093 | 0.0044 | | 4.8772 | 0.25 | 10 | 4.9629 | 0.0005 | 0.0074 | 0.0035 | | 4.7839 | 0.275 | 11 | 4.9574 | 0.0005 | 0.0084 | 0.0038 | | 4.9577 | 0.3 | 12 | 4.9500 | 0.0005 | 0.0074 | 0.0031 | | 4.8491 | 0.325 | 13 | 4.9411 | 0.0004 | 0.0067 | 0.0026 | | 4.8449 | 0.35 | 14 | 4.9340 | 0.0004 | 0.0070 | 0.0026 | | 4.8899 | 0.375 | 15 | 4.9229 | 0.0003 | 0.0051 | 0.0020 | | 4.7924 | 0.4 | 16 | 4.9163 | 0.0003 | 0.0050 | 0.0019 | | 4.7651 | 0.425 | 17 | 4.9072 | 0.0003 | 0.0043 | 0.0016 | | 4.7951 | 0.45 | 18 | 4.8953 | 0.0002 | 0.0035 | 0.0013 | | 4.7355 | 0.475 | 19 | 4.8865 | 0.0002 | 0.0028 | 0.0010 | | 4.7461 | 0.5 | 20 | 4.8723 | 0.0002 | 0.0026 | 0.0008 | | 4.704 | 0.525 | 21 | 4.8606 | 0.0002 | 0.0022 | 0.0007 | | 4.7775 | 0.55 | 22 | 4.8484 | 0.0001 | 0.0017 | 0.0006 | | 4.7081 | 0.575 | 23 | 4.8331 | 0.0001 | 0.0013 | 0.0004 | | 4.7681 | 0.6 | 24 | 4.8187 | 0.0001 | 0.0009 | 0.0003 | | 4.7297 | 0.625 | 25 | 4.8037 | 0.0001 | 0.0008 | 0.0003 | | 4.8181 | 0.65 | 26 | 4.7882 | 0.0001 | 0.0007 | 0.0002 | | 4.833 | 0.675 | 27 | 4.7748 | 0.0001 | 0.0006 | 0.0002 | | 4.7222 | 0.7 | 28 | 4.7575 | 0.0000 | 0.0004 | 0.0002 | | 4.6457 | 0.725 | 29 | 4.7389 | 0.0000 | 0.0004 | 0.0002 | | 4.7089 | 0.75 | 30 | 4.7236 | 0.0000 | 0.0005 | 0.0002 | | 4.543 | 0.775 | 31 | 4.7079 | 0.0001 | 0.0006 | 0.0002 | | 4.5529 | 0.8 | 32 | 4.6963 | 0.0001 | 0.0006 | 0.0003 | | 4.7005 | 0.825 | 33 | 4.6759 | 0.0001 | 0.0006 | 0.0003 | | 4.4735 | 0.85 | 34 | 4.6630 | 0.0001 | 0.0008 | 0.0004 | | 4.6562 | 0.875 | 35 | 4.6468 | 0.0001 | 0.0009 | 0.0004 | | 4.5902 | 0.9 | 36 | 4.6274 | 0.0001 | 0.0008 | 0.0004 | | 4.4974 | 0.925 | 37 | 4.6125 | 0.0001 | 0.0008 | 0.0004 | | 4.524 | 0.95 | 38 | 4.5967 | 0.0001 | 0.0011 | 0.0005 | | 4.5527 | 0.975 | 39 | 4.5826 | 0.0001 | 0.0011 | 0.0005 | | 4.5165 | 1.0 | 40 | 4.5627 | 0.0001 | 0.0010 | 0.0005 | | 4.6337 | 1.025 | 41 | 4.5502 | 0.0001 | 0.0012 | 0.0006 | | 4.4551 | 1.05 | 42 | 4.5425 | 0.0001 | 0.0012 | 0.0005 | | 4.4697 | 1.075 | 43 | 4.5294 | 0.0001 | 0.0006 | 0.0003 | | 4.4967 | 1.1 | 44 | 4.5065 | 0.0001 | 0.0007 | 0.0003 | | 4.4839 | 1.125 | 45 | 4.4896 | 0.0000 | 0.0004 | 0.0002 | | 4.4394 | 1.15 | 46 | 4.4699 | 0.0000 | 0.0003 | 0.0001 | | 4.4557 | 1.175 | 47 | 4.4511 | 0.0000 | 0.0003 | 0.0001 | | 4.2669 | 1.2 | 48 | 4.4475 | 0.0000 | 0.0003 | 0.0001 | | 4.3143 | 1.225 | 49 | 4.4325 | 0.0000 | 0.0002 | 0.0001 | | 4.4519 | 1.25 | 50 | 4.4195 | 0.0000 | 0.0002 | 0.0001 | | 4.5376 | 1.275 | 51 | 4.4092 | 0.0000 | 0.0001 | 0.0001 | | 4.2617 | 1.3 | 52 | 4.4058 | 0.0000 | 0.0001 | 0.0000 | | 4.2813 | 1.325 | 53 | 4.3936 | 0.0000 | 0.0001 | 0.0000 | | 4.5218 | 1.35 | 54 | 4.3867 | 0.0000 | 0.0002 | 0.0001 | | 4.4805 | 1.375 | 55 | 4.3691 | 0.0000 | 0.0002 | 0.0001 | | 4.184 | 1.4 | 56 | 4.3574 | 0.0000 | 0.0002 | 0.0001 | | 4.2208 | 1.425 | 57 | 4.3606 | 0.0000 | 0.0001 | 0.0001 | | 4.5288 | 1.45 | 58 | 4.3579 | 0.0000 | 0.0001 | 0.0001 | | 4.3959 | 1.475 | 59 | 4.3421 | 0.0000 | 0.0001 | 0.0000 | | 4.2578 | 1.5 | 60 | 4.3403 | 0.0000 | 0.0001 | 0.0000 | | 4.3504 | 1.525 | 61 | 4.3307 | 0.0000 | 0.0001 | 0.0000 | | 4.2364 | 1.55 | 62 | 4.3177 | 0.0000 | 0.0001 | 0.0000 | | 4.3248 | 1.575 | 63 | 4.2924 | 0.0000 | 0.0000 | 0.0000 | | 4.2771 | 1.6 | 64 | 4.2698 | 0.0000 | 0.0000 | 0.0000 | | 4.2447 | 1.625 | 65 | 4.2533 | 0.0000 | 0.0000 | 0.0000 | | 4.4481 | 1.65 | 66 | 4.2418 | 0.0000 | 0.0000 | 0.0000 | | 4.1369 | 1.675 | 67 | 4.2374 | 0.0000 | 0.0000 | 0.0000 | | 4.2266 | 1.7 | 68 | 4.2305 | 0.0000 | 0.0000 | 0.0000 | | 4.5113 | 1.725 | 69 | 4.2225 | 0.0000 | 0.0000 | 0.0000 | | 4.4737 | 1.75 | 70 | 4.2077 | 0.0000 | 0.0000 | 0.0000 | | 4.4571 | 1.775 | 71 | 4.1960 | 0.0000 | 0.0001 | 0.0000 | | 4.2179 | 1.8 | 72 | 4.1824 | 0.0000 | 0.0001 | 0.0000 | | 4.5426 | 1.825 | 73 | 4.1654 | 0.0000 | 0.0002 | 0.0001 | | 4.3632 | 1.85 | 74 | 4.1572 | 0.0000 | 0.0002 | 0.0001 | | 4.2132 | 1.875 | 75 | 4.1628 | 0.0000 | 0.0002 | 0.0001 | | 4.3442 | 1.9 | 76 | 4.1621 | 0.0000 | 0.0001 | 0.0000 | | 4.4454 | 1.925 | 77 | 4.1647 | 0.0000 | 0.0001 | 0.0000 | | 4.1564 | 1.95 | 78 | 4.1691 | 0.0000 | 0.0001 | 0.0000 | | 4.5028 | 1.975 | 79 | 4.1513 | 0.0000 | 0.0002 | 0.0001 | | 4.3814 | 2.0 | 80 | 4.1486 | 0.0000 | 0.0001 | 0.0001 | ### Framework versions - Transformers 4.55.2 - Pytorch 2.6.0+cu124 - Datasets 4.0.0 - Tokenizers 0.21.4
michaelcpage345/blockassist-bc-miniature_deadly_anteater_1755590019
michaelcpage345
2025-08-19T08:22:01Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "miniature deadly anteater", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:21:58Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - miniature deadly anteater --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755590082
lisaozill03
2025-08-19T08:18:57Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "rugged prickly alpaca", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:18:54Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - rugged prickly alpaca --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
ChandrilBasu/kdadi
ChandrilBasu
2025-08-19T08:17:34Z
0
0
diffusers
[ "diffusers", "flux", "text-to-image", "lora", "fal", "base_model:black-forest-labs/FLUX.1-dev", "base_model:adapter:black-forest-labs/FLUX.1-dev", "license:other", "region:us" ]
text-to-image
2025-08-19T08:17:28Z
--- tags: - flux - text-to-image - lora - diffusers - fal base_model: black-forest-labs/FLUX.1-dev instance_prompt: kdadi license: other license_name: flux-1-dev-non-commercial-license license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md --- # kdadi <Gallery /> ## Model description ## Trigger words You should use `kdadi` to trigger the image generation. ## Download model Weights for this model are available in Safetensors format. [Download](/ChandrilBasu/kdadi/tree/main) them in the Files & versions tab. ## Training at fal.ai Training was done using [fal.ai/models/fal-ai/flux-lora-fast-training](https://fal.ai/models/fal-ai/flux-lora-fast-training).
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755591196
IvanJAjebu
2025-08-19T08:14:27Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:14:18Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755590885
IvanJAjebu
2025-08-19T08:09:22Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:09:13Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
SP4ND4N/Qwen2.5-0.5B-2025-08-19_12-15-49-fp8-merged
SP4ND4N
2025-08-19T08:06:42Z
0
0
transformers
[ "transformers", "safetensors", "qwen2", "text-generation", "text-generation-inference", "unsloth", "en", "base_model:unsloth/Qwen2.5-0.5B", "base_model:finetune:unsloth/Qwen2.5-0.5B", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:56:01Z
--- base_model: unsloth/Qwen2.5-0.5B tags: - text-generation-inference - transformers - unsloth - qwen2 license: apache-2.0 language: - en --- # Uploaded finetuned model - **Developed by:** SP4ND4N - **License:** apache-2.0 - **Finetuned from model :** unsloth/Qwen2.5-0.5B This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
KCS97/dog2
KCS97
2025-08-19T08:02:17Z
0
0
diffusers
[ "diffusers", "tensorboard", "safetensors", "text-to-image", "dreambooth", "diffusers-training", "stable-diffusion", "stable-diffusion-diffusers", "base_model:stable-diffusion-v1-5/stable-diffusion-v1-5", "base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5", "license:creativeml-openrail-m", "autotrain_compatible", "endpoints_compatible", "diffusers:StableDiffusionPipeline", "region:us" ]
text-to-image
2025-08-19T07:52:32Z
--- base_model: stable-diffusion-v1-5/stable-diffusion-v1-5 library_name: diffusers license: creativeml-openrail-m inference: true instance_prompt: a photo of sks dog tags: - text-to-image - dreambooth - diffusers-training - stable-diffusion - stable-diffusion-diffusers --- <!-- This model card has been generated automatically according to the information the training script had access to. You should probably proofread and complete it, then remove this comment. --> # DreamBooth - KCS97/dog2 This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks dog using [DreamBooth](https://dreambooth.github.io/). You can find some example images in the following. DreamBooth for the text encoder was enabled: False. ## Intended uses & limitations #### How to use ```python # TODO: add an example code snippet for running this diffusion pipeline ``` #### Limitations and bias [TODO: provide examples of latent issues and potential remediations] ## Training details [TODO: describe the data used to train the model]
ihsanridzi/blockassist-bc-wiry_flexible_owl_1755588882
ihsanridzi
2025-08-19T08:02:17Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "wiry flexible owl", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T08:02:13Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - wiry flexible owl --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Andreyko22/blockassist-bc-fleecy_solitary_alligator_1755589493
Andreyko22
2025-08-19T07:59:11Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "fleecy solitary alligator", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:59:04Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - fleecy solitary alligator --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
rockst4r4/Qwen2.5-0.5B-Instruct-Gensyn-Swarm-yawning_tiny_aardvark
rockst4r4
2025-08-19T07:59:05Z
1
0
transformers
[ "transformers", "safetensors", "qwen2", "text-generation", "rl-swarm", "genrl-swarm", "grpo", "gensyn", "I am yawning_tiny_aardvark", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-15T20:28:40Z
--- library_name: transformers tags: - rl-swarm - genrl-swarm - grpo - gensyn - I am yawning_tiny_aardvark --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755590162
IvanJAjebu
2025-08-19T07:57:12Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:57:04Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
maxidesantafe11/blockassist-bc-deft_monstrous_finch_1755588054
maxidesantafe11
2025-08-19T07:54:56Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "deft monstrous finch", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:54:53Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - deft monstrous finch --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
GradientResearch/Qwen3-32B-LoRA-ECHO-KK-GRPO
GradientResearch
2025-08-19T07:54:50Z
0
0
null
[ "safetensors", "qwen3", "text-generation", "conversational", "arxiv:2508.05387", "license:apache-2.0", "region:us" ]
text-generation
2025-08-18T12:33:37Z
--- license: apache-2.0 pipeline_tag: text-generation --- # Model Card for Qwen3-32B-LoRA-ECHO-KK-GRPO <!-- Provide a quick summary of what the model is/does. --> Based on Qwen3-32B, we applied the ECHO framework to perform LoRA fine-tuning on the KK dataset. Ultimately, it achieved near-perfect scores on the 2–8 PPL test set, surpassing o4-mini, DeepSeek-R1, and o3-mini-high. Tabel 3: Model performance on K&K logic puzzle task across different degrees of difficulty | model | 2 | 3 | 4 | 5 | 6 | 7 | 8 | |----------------|---------------------------:|--------------------------:|--------------------------:|--------------------:|------------:|-------------:|-------------:| | Qwen3-32B | 0.98 | 0.99 | 0.98 | 0.99 | 0.98 | 0.96 |0.95 | | Deepseek-R1 | 1.00 | 0.97 | 0.95 | 0.93 | 0.91 | 0.93 |0.91 | | o3-mini-high | 1.00 | 1.00 | 1.00 | 1.00 | 0.99 | 0.98 |0.98 | | o4-mini | 1.00 | 1.00 | 0.96 | 0.94 | 0.97 | 0.93 |0.87 | | Qwen3-32B-Echo(GRPO w/Lora) | 0.99 | 1.00 | 1.00 | 1.00 | 0.99 | 1.00 |0.99 | # Quick start ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "GradientResearch/Qwen3-32B-LoRA-ECHO-KK-GRPO"# load the tokenizer and the model tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto" ) # prepare the model input prompt = "K & K" messages = [ {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True, enable_thinking=True # Switches between thinking and non-thinking modes. Default is True. ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) # conduct text completion generated_ids = model.generate( **model_inputs, max_new_tokens=32768 ) output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() # parsing thinking contenttry: # rindex finding 151668 (</think>) index = len(output_ids) - output_ids[::-1].index(151668) except ValueError: index = 0 thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n") content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n") print("thinking content:", thinking_content) print("content:", content) ``` # Citation If you find our work helpful, feel free to give us a cite. ``` @misc{xiao2025echodecouplinginferencetraining, title={Echo: Decoupling Inference and Training for Large-Scale RL Alignment on Heterogeneous Swarms}, author={Jie Xiao and Changyuan Fan and Qingnan Ren and Alfred Long and Yuchen Zhang and Rymon Yu and Eric Yang and Lynn Ai and Shaoduo Gan}, year={2025}, eprint={2508.05387}, archivePrefix={arXiv}, primaryClass={cs.LG}, url={https://arxiv.org/abs/2508.05387}, } ```
liukevin666/blockassist-bc-yawning_striped_cassowary_1755589937
liukevin666
2025-08-19T07:53:44Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "yawning striped cassowary", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:53:26Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - yawning striped cassowary --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
GradientResearch/Qwen2.5-7B-ECHO-MATH-GRPO
GradientResearch
2025-08-19T07:52:46Z
0
0
null
[ "safetensors", "qwen2", "text-generation", "conversational", "arxiv:2508.05387", "license:apache-2.0", "region:us" ]
text-generation
2025-08-18T12:29:51Z
--- license: apache-2.0 pipeline_tag: text-generation --- # Model Card for Qwen2.5-7B-ECHO-MATH-GRPO Based on Qwen2.5-7B, we trained the model with the ECHO framework using GRPO on the Eurus-2-RL-Math dataset. It outperformed the Qwen2.5-32B on all six test datasets, achieving a 12% improvement on average. Tabel 2: Model performance on math reasoning tasks. For AIME and AMC, the results are avg. @32 | model | AIME24 | AIME25 | AMC | MATH-500 | OlympiadBench | Minerva | Avg. | |----------------|---------------------------:|--------------------------:|--------------------------:|--------------------:|------------:|-------------:|-------------:| | Qwen2.5-7B | 2.7 | 1.9 | 22.0 | 44.6 | 19.7 | 20.9 |18.6 | | Qwen2.5-32B | 5.3 | 2.1 | 27.9 | 62.4 | 25.4 | 33.5 |26.1 | | Qwen2.5-32B-ECHO(GRPO) | 13.1 | 6.9 | 45.6 | 75.4 | 37.0 | 50.7 |38.1 | # Quick start ```python from transformers import pipeline question = "math" generator = pipeline("text-generation", model="GradientResearch/Qwen2.5-7B-ECHO-MATH-GRPO", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` # Citation If you find our work helpful, feel free to give us a cite. ```bibtex @misc{xiao2025echodecouplinginferencetraining, title={Echo: Decoupling Inference and Training for Large-Scale RL Alignment on Heterogeneous Swarms}, author={Jie Xiao and Changyuan Fan and Qingnan Ren and Alfred Long and Yuchen Zhang and Rymon Yu and Eric Yang and Lynn Ai and Shaoduo Gan}, year={2025}, eprint={2508.05387}, archivePrefix={arXiv}, primaryClass={cs.LG}, url={https://arxiv.org/abs/2508.05387}, } ```
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755589910
0xaoyama
2025-08-19T07:52:23Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:52:12Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755589772
IvanJAjebu
2025-08-19T07:51:06Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:50:39Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Hooooooooooon/Llama-3.2-1B-1
Hooooooooooon
2025-08-19T07:49:43Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "8-bit", "bitsandbytes", "region:us" ]
text-generation
2025-08-19T07:49:22Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
VoilaRaj/78_VzmMfc
VoilaRaj
2025-08-19T07:48:58Z
0
0
null
[ "safetensors", "any-to-any", "omega", "omegalabs", "bittensor", "agi", "license:mit", "region:us" ]
any-to-any
2025-08-19T07:45:03Z
--- license: mit tags: - any-to-any - omega - omegalabs - bittensor - agi --- This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet. Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
kjydb/lerobot_test_152
kjydb
2025-08-19T07:47:19Z
0
0
lerobot
[ "lerobot", "safetensors", "smolvla", "robotics", "dataset:kjydb/lerobot_test_152", "arxiv:2506.01844", "base_model:lerobot/smolvla_base", "base_model:finetune:lerobot/smolvla_base", "license:apache-2.0", "region:us" ]
robotics
2025-08-19T07:46:50Z
--- base_model: lerobot/smolvla_base datasets: kjydb/lerobot_test_152 library_name: lerobot license: apache-2.0 model_name: smolvla pipeline_tag: robotics tags: - smolvla - lerobot - robotics --- # Model Card for smolvla <!-- Provide a quick summary of what the model is/does. --> [SmolVLA](https://huggingface.co/papers/2506.01844) is a compact, efficient vision-language-action model that achieves competitive performance at reduced computational costs and can be deployed on consumer-grade hardware. This policy has been trained and pushed to the Hub using [LeRobot](https://github.com/huggingface/lerobot). See the full documentation at [LeRobot Docs](https://huggingface.co/docs/lerobot/index). --- ## How to Get Started with the Model For a complete walkthrough, see the [training guide](https://huggingface.co/docs/lerobot/il_robots#train-a-policy). Below is the short version on how to train and run inference/eval: ### Train from scratch ```bash python -m lerobot.scripts.train \ --dataset.repo_id=${HF_USER}/<dataset> \ --policy.type=act \ --output_dir=outputs/train/<desired_policy_repo_id> \ --job_name=lerobot_training \ --policy.device=cuda \ --policy.repo_id=${HF_USER}/<desired_policy_repo_id> --wandb.enable=true ``` *Writes checkpoints to `outputs/train/<desired_policy_repo_id>/checkpoints/`.* ### Evaluate the policy/run inference ```bash python -m lerobot.record \ --robot.type=so100_follower \ --dataset.repo_id=<hf_user>/eval_<dataset> \ --policy.path=<hf_user>/<desired_policy_repo_id> \ --episodes=10 ``` Prefix the dataset repo with **eval\_** and supply `--policy.path` pointing to a local or hub checkpoint. --- ## Model Details * **License:** apache-2.0
donoway/BoolQ_Llama-3.2-1B-eszatdiq
donoway
2025-08-19T07:46:49Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:26:40Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: BoolQ_Llama-3.2-1B-eszatdiq results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # BoolQ_Llama-3.2-1B-eszatdiq This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 2.5571 - Model Preparation Time: 0.0056 - Mdl: 12063.3522 - Accumulated Loss: 8361.6786 - Correct Preds: 2256.0 - Total Preds: 3270.0 - Accuracy: 0.6899 - Correct Gen Preds: 2181.0 - Gen Accuracy: 0.6670 - Correct Gen Preds 9642: 1467.0 - Correct Preds 9642: 1519.0 - Total Labels 9642: 2026.0 - Accuracy 9642: 0.7498 - Gen Accuracy 9642: 0.7241 - Correct Gen Preds 2822: 706.0 - Correct Preds 2822: 737.0 - Total Labels 2822: 1231.0 - Accuracy 2822: 0.5987 - Gen Accuracy 2822: 0.5735 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 32 - eval_batch_size: 120 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 9642 | Correct Preds 9642 | Total Labels 9642 | Accuracy 9642 | Gen Accuracy 9642 | Correct Gen Preds 2822 | Correct Preds 2822 | Total Labels 2822 | Accuracy 2822 | Gen Accuracy 2822 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:----------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:| | No log | 0 | 0 | 0.7080 | 0.0056 | 3339.8933 | 2315.0376 | 2032.0 | 3270.0 | 0.6214 | 2040.0 | 0.6239 | 2007.0 | 2008.0 | 2026.0 | 0.9911 | 0.9906 | 24.0 | 24.0 | 1231.0 | 0.0195 | 0.0195 | | 0.8982 | 1.0 | 3 | 0.8052 | 0.0056 | 3798.5080 | 2632.9251 | 1559.0 | 3270.0 | 0.4768 | 1467.0 | 0.4486 | 337.0 | 372.0 | 2026.0 | 0.1836 | 0.1663 | 1121.0 | 1187.0 | 1231.0 | 0.9643 | 0.9106 | | 0.3133 | 2.0 | 6 | 0.6938 | 0.0056 | 3273.0467 | 2268.7031 | 2128.0 | 3270.0 | 0.6508 | 1815.0 | 0.5550 | 1609.0 | 1865.0 | 2026.0 | 0.9205 | 0.7942 | 197.0 | 263.0 | 1231.0 | 0.2136 | 0.1600 | | 0.0233 | 3.0 | 9 | 0.7795 | 0.0056 | 3677.5836 | 2549.1067 | 2216.0 | 3270.0 | 0.6777 | 2161.0 | 0.6609 | 1362.0 | 1401.0 | 2026.0 | 0.6915 | 0.6723 | 790.0 | 815.0 | 1231.0 | 0.6621 | 0.6418 | | 0.0001 | 4.0 | 12 | 2.6272 | 0.0056 | 12394.1502 | 8590.9703 | 2192.0 | 3270.0 | 0.6703 | 2195.0 | 0.6713 | 1973.0 | 1977.0 | 2026.0 | 0.9758 | 0.9738 | 214.0 | 215.0 | 1231.0 | 0.1747 | 0.1738 | | 0.0025 | 5.0 | 15 | 2.5778 | 0.0056 | 12161.0922 | 8429.4268 | 2237.0 | 3270.0 | 0.6841 | 2227.0 | 0.6810 | 1771.0 | 1782.0 | 2026.0 | 0.8796 | 0.8741 | 448.0 | 455.0 | 1231.0 | 0.3696 | 0.3639 | | 0.0 | 6.0 | 18 | 2.5571 | 0.0056 | 12063.3522 | 8361.6786 | 2256.0 | 3270.0 | 0.6899 | 2181.0 | 0.6670 | 1467.0 | 1519.0 | 2026.0 | 0.7498 | 0.7241 | 706.0 | 737.0 | 1231.0 | 0.5987 | 0.5735 | | 0.0 | 7.0 | 21 | 2.6065 | 0.0056 | 12296.3865 | 8523.2057 | 2192.0 | 3270.0 | 0.6703 | 1996.0 | 0.6104 | 1273.0 | 1402.0 | 2026.0 | 0.6920 | 0.6283 | 715.0 | 790.0 | 1231.0 | 0.6418 | 0.5808 | | 0.0001 | 8.0 | 24 | 2.6148 | 0.0056 | 12335.8294 | 8550.5454 | 2175.0 | 3270.0 | 0.6651 | 1910.0 | 0.5841 | 1210.0 | 1395.0 | 2026.0 | 0.6885 | 0.5972 | 692.0 | 780.0 | 1231.0 | 0.6336 | 0.5621 | | 0.0 | 9.0 | 27 | 2.6483 | 0.0056 | 12493.8025 | 8660.0440 | 2170.0 | 3270.0 | 0.6636 | 1920.0 | 0.5872 | 1220.0 | 1396.0 | 2026.0 | 0.6890 | 0.6022 | 691.0 | 774.0 | 1231.0 | 0.6288 | 0.5613 | | 0.0001 | 10.0 | 30 | 2.6828 | 0.0056 | 12656.5201 | 8772.8312 | 2177.0 | 3270.0 | 0.6657 | 1963.0 | 0.6003 | 1255.0 | 1400.0 | 2026.0 | 0.6910 | 0.6194 | 700.0 | 777.0 | 1231.0 | 0.6312 | 0.5686 | | 0.0001 | 11.0 | 33 | 2.7214 | 0.0056 | 12838.5669 | 8899.0164 | 2171.0 | 3270.0 | 0.6639 | 2013.0 | 0.6156 | 1279.0 | 1393.0 | 2026.0 | 0.6876 | 0.6313 | 725.0 | 778.0 | 1231.0 | 0.6320 | 0.5890 | | 0.0 | 12.0 | 36 | 2.7415 | 0.0056 | 12933.2785 | 8964.6655 | 2169.0 | 3270.0 | 0.6633 | 2035.0 | 0.6223 | 1301.0 | 1393.0 | 2026.0 | 0.6876 | 0.6422 | 726.0 | 776.0 | 1231.0 | 0.6304 | 0.5898 | | 0.0 | 13.0 | 39 | 2.7593 | 0.0056 | 13017.3006 | 9022.9052 | 2172.0 | 3270.0 | 0.6642 | 2056.0 | 0.6287 | 1313.0 | 1395.0 | 2026.0 | 0.6885 | 0.6481 | 734.0 | 777.0 | 1231.0 | 0.6312 | 0.5963 | | 0.0 | 14.0 | 42 | 2.7708 | 0.0056 | 13071.4073 | 9060.4091 | 2167.0 | 3270.0 | 0.6627 | 2066.0 | 0.6318 | 1322.0 | 1393.0 | 2026.0 | 0.6876 | 0.6525 | 736.0 | 774.0 | 1231.0 | 0.6288 | 0.5979 | | 0.0 | 15.0 | 45 | 2.7767 | 0.0056 | 13099.2616 | 9079.7162 | 2168.0 | 3270.0 | 0.6630 | 2068.0 | 0.6324 | 1320.0 | 1392.0 | 2026.0 | 0.6871 | 0.6515 | 740.0 | 776.0 | 1231.0 | 0.6304 | 0.6011 | | 0.0 | 16.0 | 48 | 2.7824 | 0.0056 | 13126.3414 | 9098.4865 | 2169.0 | 3270.0 | 0.6633 | 2077.0 | 0.6352 | 1325.0 | 1391.0 | 2026.0 | 0.6866 | 0.6540 | 743.0 | 778.0 | 1231.0 | 0.6320 | 0.6036 | | 0.0 | 17.0 | 51 | 2.7841 | 0.0056 | 13134.4015 | 9104.0734 | 2165.0 | 3270.0 | 0.6621 | 2078.0 | 0.6355 | 1328.0 | 1392.0 | 2026.0 | 0.6871 | 0.6555 | 742.0 | 773.0 | 1231.0 | 0.6279 | 0.6028 | | 0.0 | 18.0 | 54 | 2.7872 | 0.0056 | 13148.8380 | 9114.0800 | 2171.0 | 3270.0 | 0.6639 | 2082.0 | 0.6367 | 1331.0 | 1397.0 | 2026.0 | 0.6895 | 0.6570 | 742.0 | 774.0 | 1231.0 | 0.6288 | 0.6028 | | 0.0 | 19.0 | 57 | 2.7901 | 0.0056 | 13162.4860 | 9123.5401 | 2171.0 | 3270.0 | 0.6639 | 2081.0 | 0.6364 | 1327.0 | 1393.0 | 2026.0 | 0.6876 | 0.6550 | 745.0 | 778.0 | 1231.0 | 0.6320 | 0.6052 | | 0.0 | 20.0 | 60 | 2.7935 | 0.0056 | 13178.7743 | 9134.8302 | 2172.0 | 3270.0 | 0.6642 | 2083.0 | 0.6370 | 1330.0 | 1398.0 | 2026.0 | 0.6900 | 0.6565 | 745.0 | 774.0 | 1231.0 | 0.6288 | 0.6052 | | 0.0 | 21.0 | 63 | 2.7929 | 0.0056 | 13175.9740 | 9132.8892 | 2167.0 | 3270.0 | 0.6627 | 2080.0 | 0.6361 | 1328.0 | 1393.0 | 2026.0 | 0.6876 | 0.6555 | 743.0 | 774.0 | 1231.0 | 0.6288 | 0.6036 | | 0.0 | 22.0 | 66 | 2.7951 | 0.0056 | 13186.0428 | 9139.8684 | 2175.0 | 3270.0 | 0.6651 | 2087.0 | 0.6382 | 1331.0 | 1397.0 | 2026.0 | 0.6895 | 0.6570 | 748.0 | 778.0 | 1231.0 | 0.6320 | 0.6076 | | 0.0 | 23.0 | 69 | 2.7974 | 0.0056 | 13196.9785 | 9147.4485 | 2171.0 | 3270.0 | 0.6639 | 2089.0 | 0.6388 | 1330.0 | 1394.0 | 2026.0 | 0.6881 | 0.6565 | 751.0 | 777.0 | 1231.0 | 0.6312 | 0.6101 | | 0.0 | 24.0 | 72 | 2.7988 | 0.0056 | 13203.5576 | 9152.0087 | 2172.0 | 3270.0 | 0.6642 | 2089.0 | 0.6388 | 1333.0 | 1395.0 | 2026.0 | 0.6885 | 0.6579 | 748.0 | 777.0 | 1231.0 | 0.6312 | 0.6076 | | 0.0 | 25.0 | 75 | 2.8010 | 0.0056 | 13214.0329 | 9159.2696 | 2172.0 | 3270.0 | 0.6642 | 2093.0 | 0.6401 | 1335.0 | 1396.0 | 2026.0 | 0.6890 | 0.6589 | 749.0 | 776.0 | 1231.0 | 0.6304 | 0.6084 | | 0.0 | 26.0 | 78 | 2.8012 | 0.0056 | 13214.8892 | 9159.8632 | 2174.0 | 3270.0 | 0.6648 | 2088.0 | 0.6385 | 1332.0 | 1397.0 | 2026.0 | 0.6895 | 0.6575 | 748.0 | 777.0 | 1231.0 | 0.6312 | 0.6076 | | 0.0 | 27.0 | 81 | 2.8035 | 0.0056 | 13225.9128 | 9167.5042 | 2172.0 | 3270.0 | 0.6642 | 2092.0 | 0.6398 | 1333.0 | 1394.0 | 2026.0 | 0.6881 | 0.6579 | 751.0 | 778.0 | 1231.0 | 0.6320 | 0.6101 | | 0.0 | 28.0 | 84 | 2.8045 | 0.0056 | 13230.6764 | 9170.8061 | 2172.0 | 3270.0 | 0.6642 | 2095.0 | 0.6407 | 1337.0 | 1395.0 | 2026.0 | 0.6885 | 0.6599 | 750.0 | 777.0 | 1231.0 | 0.6312 | 0.6093 | | 0.0 | 29.0 | 87 | 2.8054 | 0.0056 | 13234.8323 | 9173.6867 | 2171.0 | 3270.0 | 0.6639 | 2090.0 | 0.6391 | 1333.0 | 1396.0 | 2026.0 | 0.6890 | 0.6579 | 749.0 | 775.0 | 1231.0 | 0.6296 | 0.6084 | | 0.0 | 30.0 | 90 | 2.8060 | 0.0056 | 13237.7898 | 9175.7367 | 2175.0 | 3270.0 | 0.6651 | 2094.0 | 0.6404 | 1335.0 | 1396.0 | 2026.0 | 0.6890 | 0.6589 | 751.0 | 779.0 | 1231.0 | 0.6328 | 0.6101 | | 0.0 | 31.0 | 93 | 2.8078 | 0.0056 | 13246.1557 | 9181.5355 | 2168.0 | 3270.0 | 0.6630 | 2091.0 | 0.6394 | 1335.0 | 1393.0 | 2026.0 | 0.6876 | 0.6589 | 747.0 | 775.0 | 1231.0 | 0.6296 | 0.6068 | | 0.0 | 32.0 | 96 | 2.8082 | 0.0056 | 13247.9959 | 9182.8110 | 2169.0 | 3270.0 | 0.6633 | 2095.0 | 0.6407 | 1337.0 | 1393.0 | 2026.0 | 0.6876 | 0.6599 | 749.0 | 776.0 | 1231.0 | 0.6304 | 0.6084 | | 0.0 | 33.0 | 99 | 2.8077 | 0.0056 | 13245.4286 | 9181.0315 | 2173.0 | 3270.0 | 0.6645 | 2100.0 | 0.6422 | 1338.0 | 1396.0 | 2026.0 | 0.6890 | 0.6604 | 753.0 | 777.0 | 1231.0 | 0.6312 | 0.6117 | | 0.0 | 34.0 | 102 | 2.8115 | 0.0056 | 13263.6309 | 9193.6484 | 2169.0 | 3270.0 | 0.6633 | 2091.0 | 0.6394 | 1333.0 | 1394.0 | 2026.0 | 0.6881 | 0.6579 | 749.0 | 775.0 | 1231.0 | 0.6296 | 0.6084 | | 0.0 | 35.0 | 105 | 2.8099 | 0.0056 | 13255.9181 | 9188.3022 | 2174.0 | 3270.0 | 0.6648 | 2095.0 | 0.6407 | 1339.0 | 1397.0 | 2026.0 | 0.6895 | 0.6609 | 748.0 | 777.0 | 1231.0 | 0.6312 | 0.6076 | | 0.0 | 36.0 | 108 | 2.8103 | 0.0056 | 13258.0305 | 9189.7664 | 2173.0 | 3270.0 | 0.6645 | 2098.0 | 0.6416 | 1339.0 | 1397.0 | 2026.0 | 0.6895 | 0.6609 | 750.0 | 776.0 | 1231.0 | 0.6304 | 0.6093 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
lisaozill03/blockassist-bc-rugged_prickly_alpaca_1755588000
lisaozill03
2025-08-19T07:46:06Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "rugged prickly alpaca", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:46:02Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - rugged prickly alpaca --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755588452
Sayemahsjn
2025-08-19T07:45:27Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "playful feline octopus", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:45:23Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - playful feline octopus --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755589460
0xaoyama
2025-08-19T07:44:54Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:44:43Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
BRlkl/BingoGuard-llama-1B-pt-3
BRlkl
2025-08-19T07:42:32Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "text-generation-inference", "unsloth", "conversational", "en", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:40:48Z
--- base_model: unsloth/llama-3.2-1b-instruct-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - llama license: apache-2.0 language: - en --- # Uploaded finetuned model - **Developed by:** BRlkl - **License:** apache-2.0 - **Finetuned from model :** unsloth/llama-3.2-1b-instruct-unsloth-bnb-4bit This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
g-assismoraes/Qwen3-4B-Base-hatebr-ep30
g-assismoraes
2025-08-19T07:42:21Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "conversational", "base_model:Qwen/Qwen3-4B-Base", "base_model:finetune:Qwen/Qwen3-4B-Base", "license:apache-2.0", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T02:53:46Z
--- library_name: transformers license: apache-2.0 base_model: Qwen/Qwen3-4B-Base tags: - generated_from_trainer model-index: - name: Qwen3-4B-Base-hatebr-ep30 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # Qwen3-4B-Base-hatebr-ep30 This model is a fine-tuned version of [Qwen/Qwen3-4B-Base](https://huggingface.co/Qwen/Qwen3-4B-Base) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 1.9718 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 4 - eval_batch_size: 4 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: linear - num_epochs: 30 ### Training results | Training Loss | Epoch | Step | Validation Loss | |:-------------:|:-----:|:-----:|:---------------:| | 1.0747 | 1.0 | 1120 | 1.0066 | | 0.8638 | 2.0 | 2240 | 1.0155 | | 0.6535 | 3.0 | 3360 | 1.0998 | | 0.4773 | 4.0 | 4480 | 1.2130 | | 0.3591 | 5.0 | 5600 | 1.3275 | | 0.2638 | 6.0 | 6720 | 1.4576 | | 0.2032 | 7.0 | 7840 | 1.5488 | | 0.1826 | 8.0 | 8960 | 1.6453 | | 0.1748 | 9.0 | 10080 | 1.6863 | | 0.1505 | 10.0 | 11200 | 1.7423 | | 0.1568 | 11.0 | 12320 | 1.7965 | | 0.1506 | 12.0 | 13440 | 1.8098 | | 0.1523 | 13.0 | 14560 | 1.8553 | | 0.1487 | 14.0 | 15680 | 1.8605 | | 0.1426 | 15.0 | 16800 | 1.8745 | | 0.1439 | 16.0 | 17920 | 1.8776 | | 0.1426 | 17.0 | 19040 | 1.8878 | | 0.1418 | 18.0 | 20160 | 1.8955 | | 0.1456 | 19.0 | 21280 | 1.9128 | | 0.1387 | 20.0 | 22400 | 1.9380 | | 0.138 | 21.0 | 23520 | 1.9251 | | 0.1354 | 22.0 | 24640 | 1.9360 | | 0.1352 | 23.0 | 25760 | 1.9448 | | 0.1395 | 24.0 | 26880 | 1.9579 | | 0.1337 | 25.0 | 28000 | 1.9650 | | 0.1375 | 26.0 | 29120 | 1.9689 | | 0.1293 | 27.0 | 30240 | 1.9707 | | 0.1338 | 28.0 | 31360 | 1.9728 | | 0.1299 | 29.0 | 32480 | 1.9713 | | 0.1286 | 30.0 | 33600 | 1.9718 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.2.0 - Tokenizers 0.21.0
vorkna/gemma-3N-finetune
vorkna
2025-08-19T07:41:38Z
10
0
transformers
[ "transformers", "safetensors", "gemma3n", "image-text-to-text", "text-generation-inference", "unsloth", "conversational", "en", "th", "dataset:scb10x/thai_exam", "license:apache-2.0", "endpoints_compatible", "region:us" ]
image-text-to-text
2025-08-13T02:46:47Z
--- base_model: unsloth/gemma-3n-e4b-it-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - gemma3n license: apache-2.0 language: - en - th datasets: - scb10x/thai_exam --- # Uploaded finetuned model - **Developed by:** vorkna - **License:** apache-2.0 - **Finetuned from model :** unsloth/gemma-3n-e4b-it-unsloth-bnb-4bit This model was trained on scb10x/thai_exam on purpose of getting better score on Thai LLM Leaderboard in Thai Exam category. This gemma3n model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
VoilaRaj/78_EZ2IAQ
VoilaRaj
2025-08-19T07:40:51Z
0
0
null
[ "safetensors", "any-to-any", "omega", "omegalabs", "bittensor", "agi", "license:mit", "region:us" ]
any-to-any
2025-08-19T07:36:54Z
--- license: mit tags: - any-to-any - omega - omegalabs - bittensor - agi --- This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet. Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
CosminMihai02/llama3.1_ollama_v4
CosminMihai02
2025-08-19T07:40:35Z
0
0
transformers
[ "transformers", "gguf", "llama", "text-generation-inference", "unsloth", "en", "license:apache-2.0", "endpoints_compatible", "region:us", "conversational" ]
null
2025-08-19T07:39:48Z
--- base_model: unsloth/meta-llama-3.1-8b-instruct-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - llama - gguf license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** CosminMihai02 - **License:** apache-2.0 - **Finetuned from model :** unsloth/meta-llama-3.1-8b-instruct-unsloth-bnb-4bit This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755589087
IvanJAjebu
2025-08-19T07:39:31Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:39:09Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Ferdi3425/blockassist-bc-amphibious_deadly_otter_1755588973
Ferdi3425
2025-08-19T07:37:30Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "amphibious deadly otter", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:37:01Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - amphibious deadly otter --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
jinaai/jina-embeddings-v4-vllm-text-matching
jinaai
2025-08-19T07:36:27Z
159
5
transformers
[ "transformers", "safetensors", "qwen2_5_vl", "image-to-text", "vidore", "colpali", "multimodal-embedding", "multilingual-embedding", "Text-to-Visual Document (T→VD) retrieval", "feature-extraction", "sentence-similarity", "mteb", "visual-document-retrieval", "multilingual", "arxiv:2506.18902", "text-generation-inference", "endpoints_compatible", "region:eu" ]
visual-document-retrieval
2025-07-01T09:45:47Z
--- tags: - vidore - colpali - multimodal-embedding - multilingual-embedding - Text-to-Visual Document (T→VD) retrieval - feature-extraction - sentence-similarity - mteb language: - multilingual library_name: transformers pipeline_tag: visual-document-retrieval --- <br><br> <p align="center"> <img src="https://huggingface.co/datasets/jinaai/documentation-images/resolve/main/logo.webp" alt="Jina AI: Your Search Foundation, Supercharged!" width="150px"> </p> <p align="center"> <b>The embedding model trained by <a href="https://jina.ai/"><b>Jina AI</b></a>.</b> </p> # Jina Embeddings v4: Universal Embeddings for Multimodal Multilingual Retrieval [Original Model](https://huggingface.co/jinaai/jina-embeddings-v4) | [Blog](https://jina.ai/news/jina-embeddings-v4-universal-embeddings-for-multimodal-multilingual-retrieval) | [Technical Report](https://arxiv.org/abs/2506.18902) | [API](https://jina.ai/embeddings) ## Model Overview This repository hosts a vLLM-compatible version of [`jina-embeddings-v4`](https://huggingface.co/jinaai/jina-embeddings-v4) with the **text-matching** adapter merged into the base `Qwen2.5-VL` weights. This architecture modification enables native compatibility with vLLM without requiring custom adapter-handling code. ## Usage ```python import torch from PIL import Image from vllm import LLM from vllm.config import PoolerConfig from vllm.inputs.data import TextPrompt # Initialize model model = LLM( model="jinaai/jina-embeddings-v4-vllm-text-matching", task="embed", override_pooler_config=PoolerConfig(pooling_type="ALL", normalize=False), dtype="float16", ) # Create text prompts text1 = "Ein wunderschöner Sonnenuntergang am Strand" text1_prompt = TextPrompt( prompt=f"Query: {text1}" ) text2 = "浜辺に沈む美しい夕日" text2_prompt = TextPrompt( prompt=f"Query: {text2}" ) # Create image prompt image = Image.open("<path_to_image>") image_prompt = TextPrompt( prompt="<|im_start|>user\n<|vision_start|><|image_pad|><|vision_end|>Describe the image.<|im_end|>\n", multi_modal_data={"image": image}, ) # Encode all prompts prompts = [text1_prompt, text2_prompt, image_prompt] outputs = model.encode(prompts) def get_embeddings(outputs): VISION_START_TOKEN_ID, VISION_END_TOKEN_ID = 151652, 151653 embeddings = [] for output in outputs: if VISION_START_TOKEN_ID in output.prompt_token_ids: # Gather only vision tokens img_start_pos = torch.where( torch.tensor(output.prompt_token_ids) == VISION_START_TOKEN_ID )[0][0] img_end_pos = torch.where( torch.tensor(output.prompt_token_ids) == VISION_END_TOKEN_ID )[0][0] embeddings_tensor = output.outputs.data.detach().clone()[ img_start_pos : img_end_pos + 1 ] else: # Use all tokens for text-only prompts embeddings_tensor = output.outputs.data.detach().clone() # Pool and normalize embeddings pooled_output = ( embeddings_tensor.sum(dim=0, dtype=torch.float32) / embeddings_tensor.shape[0] ) embeddings.append(torch.nn.functional.normalize(pooled_output, dim=-1)) return embeddings embeddings = get_embeddings(outputs) ```
smirki/UIGEN-X-4B-STG-Modal-0-5
smirki
2025-08-19T07:35:05Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "text-generation-inference", "unsloth", "conversational", "en", "base_model:unsloth/Qwen3-4B-Thinking-2507", "base_model:finetune:unsloth/Qwen3-4B-Thinking-2507", "license:apache-2.0", "autotrain_compatible", "endpoints_compatible", "region:us" ]
text-generation
2025-08-18T23:39:41Z
--- base_model: unsloth/Qwen3-4B-Thinking-2507 tags: - text-generation-inference - transformers - unsloth - qwen3 license: apache-2.0 language: - en --- # Uploaded finetuned model - **Developed by:** smirki - **License:** apache-2.0 - **Finetuned from model :** unsloth/Qwen3-4B-Thinking-2507 This qwen3 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
donoway/ARC-Challenge_Llama-3.2-1B-jeegnirm
donoway
2025-08-19T07:34:27Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:24:08Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: ARC-Challenge_Llama-3.2-1B-jeegnirm results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # ARC-Challenge_Llama-3.2-1B-jeegnirm This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 4.1740 - Model Preparation Time: 0.0056 - Mdl: 1800.5119 - Accumulated Loss: 1248.0197 - Correct Preds: 73.0 - Total Preds: 299.0 - Accuracy: 0.2441 - Correct Gen Preds: 73.0 - Gen Accuracy: 0.2441 - Correct Gen Preds 32: 0.0 - Correct Preds 32: 0.0 - Total Labels 32: 64.0 - Accuracy 32: 0.0 - Gen Accuracy 32: 0.0 - Correct Gen Preds 33: 73.0 - Correct Preds 33: 73.0 - Total Labels 33: 73.0 - Accuracy 33: 1.0 - Gen Accuracy 33: 1.0 - Correct Gen Preds 34: 0.0 - Correct Preds 34: 0.0 - Total Labels 34: 78.0 - Accuracy 34: 0.0 - Gen Accuracy 34: 0.0 - Correct Gen Preds 35: 0.0 - Correct Preds 35: 0.0 - Total Labels 35: 83.0 - Accuracy 35: 0.0 - Gen Accuracy 35: 0.0 - Correct Gen Preds 36: 0.0 - Correct Preds 36: 0.0 - Total Labels 36: 1.0 - Accuracy 36: 0.0 - Gen Accuracy 36: 0.0 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 64 - eval_batch_size: 112 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:| | No log | 0 | 0 | 1.6389 | 0.0056 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 1.6112 | 1.0 | 1 | 1.6389 | 0.0056 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 1.6112 | 2.0 | 2 | 2.6577 | 0.0056 | 1146.4553 | 794.6622 | 67.0 | 299.0 | 0.2241 | 5.0 | 0.0167 | 2.0 | 28.0 | 64.0 | 0.4375 | 0.0312 | 3.0 | 38.0 | 73.0 | 0.5205 | 0.0411 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 1.0 | 83.0 | 0.0120 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.6501 | 3.0 | 3 | 4.1740 | 0.0056 | 1800.5119 | 1248.0197 | 73.0 | 299.0 | 0.2441 | 73.0 | 0.2441 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 73.0 | 73.0 | 73.0 | 1.0 | 1.0 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.8752 | 4.0 | 4 | 3.5170 | 0.0056 | 1517.1209 | 1051.5880 | 72.0 | 299.0 | 0.2408 | 66.0 | 0.2207 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 65.0 | 71.0 | 73.0 | 0.9726 | 0.8904 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0108 | 5.0 | 5 | 5.5078 | 0.0056 | 2375.8687 | 1646.8267 | 73.0 | 299.0 | 0.2441 | 67.0 | 0.2241 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 66.0 | 72.0 | 73.0 | 0.9863 | 0.9041 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0004 | 6.0 | 6 | 6.7942 | 0.0056 | 2930.8057 | 2031.4797 | 73.0 | 299.0 | 0.2441 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 73.0 | 73.0 | 1.0 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0001 | 7.0 | 7 | 7.4741 | 0.0056 | 3224.0644 | 2234.7512 | 73.0 | 299.0 | 0.2441 | 70.0 | 0.2341 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 70.0 | 73.0 | 73.0 | 1.0 | 0.9589 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 8.0 | 8 | 7.9209 | 0.0056 | 3416.8166 | 2368.3568 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 9.0 | 9 | 8.2159 | 0.0056 | 3544.0580 | 2456.5538 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 10.0 | 10 | 8.4230 | 0.0056 | 3633.3945 | 2518.4772 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 11.0 | 11 | 8.5792 | 0.0056 | 3700.7751 | 2565.1818 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 12.0 | 12 | 8.6998 | 0.0056 | 3752.7854 | 2601.2326 | 72.0 | 299.0 | 0.2408 | 69.0 | 0.2308 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 13.0 | 13 | 8.7996 | 0.0056 | 3795.8541 | 2631.0856 | 72.0 | 299.0 | 0.2408 | 68.0 | 0.2274 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 14.0 | 14 | 8.8839 | 0.0056 | 3832.1953 | 2656.2754 | 73.0 | 299.0 | 0.2441 | 69.0 | 0.2308 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 69.0 | 72.0 | 73.0 | 0.9863 | 0.9452 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 15.0 | 15 | 8.9564 | 0.0056 | 3863.5004 | 2677.9744 | 72.0 | 299.0 | 0.2408 | 68.0 | 0.2274 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 16.0 | 16 | 9.0167 | 0.0056 | 3889.4998 | 2695.9958 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 17.0 | 17 | 9.0633 | 0.0056 | 3909.6136 | 2709.9376 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 18.0 | 18 | 9.1024 | 0.0056 | 3926.4705 | 2721.6219 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 19.0 | 19 | 9.1340 | 0.0056 | 3940.0800 | 2731.0554 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 20.0 | 20 | 9.1662 | 0.0056 | 3953.9683 | 2740.6819 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 21.0 | 21 | 9.1797 | 0.0056 | 3959.8057 | 2744.7281 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 22.0 | 22 | 9.1905 | 0.0056 | 3964.4881 | 2747.9738 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 23.0 | 23 | 9.2127 | 0.0056 | 3974.0531 | 2754.6037 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 24.0 | 24 | 9.2275 | 0.0056 | 3980.4255 | 2759.0207 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 25.0 | 25 | 9.2345 | 0.0056 | 3983.4380 | 2761.1088 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 26.0 | 26 | 9.2472 | 0.0056 | 3988.9396 | 2764.9222 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 27.0 | 27 | 9.2510 | 0.0056 | 3990.5717 | 2766.0535 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 28.0 | 28 | 9.2577 | 0.0056 | 3993.4571 | 2768.0535 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 29.0 | 29 | 9.2680 | 0.0056 | 3997.9100 | 2771.1400 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 30.0 | 30 | 9.2658 | 0.0056 | 3996.9598 | 2770.4814 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 31.0 | 31 | 9.2687 | 0.0056 | 3998.1872 | 2771.3322 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 32.0 | 32 | 9.2685 | 0.0056 | 3998.0945 | 2771.2679 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 33.0 | 33 | 9.2818 | 0.0056 | 4003.8405 | 2775.2507 | 73.0 | 299.0 | 0.2441 | 68.0 | 0.2274 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 68.0 | 72.0 | 73.0 | 0.9863 | 0.9315 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
smirki/UIGEN-X-4B-STG-Modal-0-5-lora
smirki
2025-08-19T07:33:19Z
0
0
transformers
[ "transformers", "safetensors", "unsloth", "arxiv:1910.09700", "endpoints_compatible", "region:us" ]
null
2025-08-19T07:33:16Z
--- library_name: transformers tags: - unsloth --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
lqpl/blockassist-bc-hairy_insectivorous_antelope_1755588496
lqpl
2025-08-19T07:32:28Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "hairy insectivorous antelope", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:29:02Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - hairy insectivorous antelope --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
KCS97/teapot
KCS97
2025-08-19T07:29:56Z
0
0
diffusers
[ "diffusers", "tensorboard", "safetensors", "text-to-image", "dreambooth", "diffusers-training", "stable-diffusion", "stable-diffusion-diffusers", "base_model:stable-diffusion-v1-5/stable-diffusion-v1-5", "base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5", "license:creativeml-openrail-m", "autotrain_compatible", "endpoints_compatible", "diffusers:StableDiffusionPipeline", "region:us" ]
text-to-image
2025-08-19T07:17:14Z
--- base_model: stable-diffusion-v1-5/stable-diffusion-v1-5 library_name: diffusers license: creativeml-openrail-m inference: true instance_prompt: a photo of sks teapot tags: - text-to-image - dreambooth - diffusers-training - stable-diffusion - stable-diffusion-diffusers --- <!-- This model card has been generated automatically according to the information the training script had access to. You should probably proofread and complete it, then remove this comment. --> # DreamBooth - KCS97/teapot This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks teapot using [DreamBooth](https://dreambooth.github.io/). You can find some example images in the following. DreamBooth for the text encoder was enabled: False. ## Intended uses & limitations #### How to use ```python # TODO: add an example code snippet for running this diffusion pipeline ``` #### Limitations and bias [TODO: provide examples of latent issues and potential remediations] ## Training details [TODO: describe the data used to train the model]
jinaai/jina-embeddings-v4
jinaai
2025-08-19T07:29:43Z
105,668
316
transformers
[ "transformers", "safetensors", "feature-extraction", "vidore", "colpali", "multimodal-embedding", "multilingual-embedding", "Text-to-Visual Document (T→VD) retrieval", "sentence-similarity", "mteb", "sentence-transformers", "visual-document-retrieval", "custom_code", "multilingual", "arxiv:2506.18902", "region:eu" ]
visual-document-retrieval
2025-05-07T12:19:26Z
--- tags: - vidore - colpali - multimodal-embedding - multilingual-embedding - Text-to-Visual Document (T→VD) retrieval - feature-extraction - sentence-similarity - mteb - sentence-transformers language: - multilingual inference: false library_name: transformers pipeline_tag: visual-document-retrieval --- <br><br> <p align="center"> <img src="https://huggingface.co/datasets/jinaai/documentation-images/resolve/main/logo.webp" alt="Jina AI: Your Search Foundation, Supercharged!" width="150px"> </p> <p align="center"> <b>The embedding model trained by <a href="https://jina.ai/"><b>Jina AI</b></a>.</b> </p> # Jina Embeddings v4: Universal Embeddings for Multimodal Multilingual Retrieval [GGUF](https://github.com/jina-ai/jina-embeddings-v4-gguf) | [Blog](https://jina.ai/news/jina-embeddings-v4-universal-embeddings-for-multimodal-multilingual-retrieval) | [Technical Report](https://arxiv.org/abs/2506.18902) | [API](https://jina.ai/embeddings) ## Intended Usage & Model Info `jina-embeddings-v4` is a universal embedding model for multimodal and multilingual retrieval. The model is specially designed for complex document retrieval, including visually rich documents with charts, tables, and illustrations. Built on [Qwen/Qwen2.5-VL-3B-Instruct](https://huggingface.co/Qwen/Qwen2.5-VL-3B-Instruct), `jina-embeddings-v4` features: - **Unified embeddings** for text, images, and visual documents, supporting both dense (single-vector) and late-interaction (multi-vector) retrieval. - **Multilingual support** (30+ languages) and compatibility with a wide range of domains, including technical and visually complex documents. - **Task-specific adapters** for retrieval, text matching, and code-related tasks, which can be selected at inference time. - **Flexible embedding size**: dense embeddings are 2048 dimensions by default but can be truncated to as low as 128 with minimal performance loss. Summary of features: | Feature | Jina Embeddings V4 | |------------|------------| | Base Model | Qwen2.5-VL-3B-Instruct | | Supported Tasks | `retrieval`, `text-matching`, `code` | | Model DType | BFloat 16 | | Max Sequence Length | 32768 | | Single-Vector Dimension | 2048 | | Multi-Vector Dimension | 128 | | Matryoshka dimensions | 128, 256, 512, 1024, 2048 | | Pooling Strategy | Mean pooling | | Attention Mechanism | FlashAttention2 | ## Training & Evaluation Please refer to our [technical report of jina-embeddings-v4](https://arxiv.org/abs/2506.18902) for training details and benchmarks. ## Usage <details> <summary>Requirements</a></summary> The following Python packages are required: - `transformers>=4.52.0` - `torch>=2.6.0` - `peft>=0.15.2` - `torchvision` - `pillow` ### Optional / Recommended - **flash-attention**: Installing [flash-attention](https://github.com/Dao-AILab/flash-attention) is recommended for improved inference speed and efficiency, but not mandatory. - **sentence-transformers**: If you want to use the model via the `sentence-transformers` interface, install this package as well. </details> <details> <summary>via <a href="https://jina.ai/embeddings/">Jina AI Embeddings API</a></summary> ```bash curl https://api.jina.ai/v1/embeddings \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $JINA_AI_API_TOKEN" \ -d @- <<EOFEOF { "model": "jina-embeddings-v4", "task": "text-matching", "input": [ { "text": "غروب جميل على الشاطئ" }, { "text": "海滩上美丽的日落" }, { "text": "A beautiful sunset over the beach" }, { "text": "Un beau coucher de soleil sur la plage" }, { "text": "Ein wunderschöner Sonnenuntergang am Strand" }, { "text": "Ένα όμορφο ηλιοβασίλεμα πάνω από την παραλία" }, { "text": "समुद्र तट पर एक खूबसूरत सूर्यास्त" }, { "text": "Un bellissimo tramonto sulla spiaggia" }, { "text": "浜辺に沈む美しい夕日" }, { "text": "해변 위로 아름다운 일몰" }, { "image": "https://i.ibb.co/nQNGqL0/beach1.jpg" }, { "image": "https://i.ibb.co/r5w8hG8/beach2.jpg" } ] } EOFEOF ``` </details> <details> <summary>via <a href="https://huggingface.co/docs/transformers/en/index">transformers</a></summary> ```python # !pip install transformers>=4.52.0 torch>=2.6.0 peft>=0.15.2 torchvision pillow # !pip install from transformers import AutoModel import torch # Initialize the model model = AutoModel.from_pretrained("jinaai/jina-embeddings-v4", trust_remote_code=True, torch_dtype=torch.float16) model.to("cuda") # ======================== # 1. Retrieval Task # ======================== # Configure truncate_dim, max_length (for texts), max_pixels (for images), vector_type, batch_size in the encode function if needed # Encode query query_embeddings = model.encode_text( texts=["Overview of climate change impacts on coastal cities"], task="retrieval", prompt_name="query", ) # Encode passage (text) passage_embeddings = model.encode_text( texts=[ "Climate change has led to rising sea levels, increased frequency of extreme weather events..." ], task="retrieval", prompt_name="passage", ) # Encode image/document image_embeddings = model.encode_image( images=["https://i.ibb.co/nQNGqL0/beach1.jpg"], task="retrieval", ) # ======================== # 2. Text Matching Task # ======================== texts = [ "غروب جميل على الشاطئ", # Arabic "海滩上美丽的日落", # Chinese "Un beau coucher de soleil sur la plage", # French "Ein wunderschöner Sonnenuntergang am Strand", # German "Ένα όμορφο ηλιοβασίλεμα πάνω από την παραλία", # Greek "समुद्र तट पर एक खूबसूरत सूर्यास्त", # Hindi "Un bellissimo tramonto sulla spiaggia", # Italian "浜辺に沈む美しい夕日", # Japanese "해변 위로 아름다운 일몰", # Korean ] text_embeddings = model.encode_text(texts=texts, task="text-matching") # ======================== # 3. Code Understanding Task # ======================== # Encode query query_embedding = model.encode_text( texts=["Find a function that prints a greeting message to the console"], task="code", prompt_name="query", ) # Encode code code_embeddings = model.encode_text( texts=["def hello_world():\n print('Hello, World!')"], task="code", prompt_name="passage", ) # ======================== # 4. Use multivectors # ======================== multivector_embeddings = model.encode_text( texts=texts, task="retrieval", prompt_name="query", return_multivector=True, ) images = ["https://i.ibb.co/nQNGqL0/beach1.jpg", "https://i.ibb.co/r5w8hG8/beach2.jpg"] multivector_image_embeddings = model.encode_image( images=images, task="retrieval", return_multivector=True, ) ``` </details> <details> <summary>via <a href="https://sbert.net/">sentence-transformers</a></summary> ```python from sentence_transformers import SentenceTransformer # Initialize the model model = SentenceTransformer("jinaai/jina-embeddings-v4", trust_remote_code=True) # ======================== # 1. Retrieval Task # ======================== # Encode query query_embeddings = model.encode( sentences=["Overview of climate change impacts on coastal cities"], task="retrieval", prompt_name="query", ) print(f"query_embeddings.shape = {query_embeddings.shape}") # Encode passage (text) passage_embeddings = model.encode( sentences=[ "Climate change has led to rising sea levels, increased frequency of extreme weather events..." ], task="retrieval", prompt_name="passage", ) print(f"passage_embeddings.shape = {passage_embeddings.shape}") # Encode image/document image_embeddings = model.encode( sentences=["https://i.ibb.co/nQNGqL0/beach1.jpg"], task="retrieval", ) print(f"image_embeddings.shape = {image_embeddings.shape}") # ======================== # 2. Text Matching Task # ======================== texts = [ "غروب جميل على الشاطئ", # Arabic "海滩上美丽的日落", # Chinese "Un beau coucher de soleil sur la plage", # French "Ein wunderschöner Sonnenuntergang am Strand", # German "Ένα όμορφο ηλιοβασίλεμα πάνω από την παραλία", # Greek "समुद्र तट पर एक खूबसूरत सूर्यास्त", # Hindi "Un bellissimo tramonto sulla spiaggia", # Italian "浜辺に沈む美しい夕日", # Japanese "해변 위로 아름다운 일몰", # Korean ] text_embeddings = model.encode(sentences=texts, task="text-matching") # ======================== # 3. Code Understanding Task # ======================== # Encode query query_embeddings = model.encode( sentences=["Find a function that prints a greeting message to the console"], task="code", prompt_name="query", ) # Encode code code_embeddings = model.encode( sentences=["def hello_world():\n print('Hello, World!')"], task="code", prompt_name="passage", ) # ======================== # 4. Use multivectors # ======================== # If you want to use multi-vector embeddings, please use the Hugging Face model directly. ``` </details> <details> <summary>via <a href="https://github.com/vllm-project/vllm">vLLM</a></summary> We provide separate model versions for each task (`retrieval`, `text-matching`, `code`) where specific adapter is merged into the base `Qwen2.5-VL` weights. This modification enables native compatibility with vLLM. Instructions and usage examples for each task are available in their respective directories: - [jina-embeddings-v4-vllm-retrieval](https://huggingface.co/jinaai/jina-embeddings-v4-vllm-retrieval) - [jina-embeddings-v4-vllm-text-matching](https://huggingface.co/jinaai/jina-embeddings-v4-vllm-text-matching) - [jina-embeddings-v4-vllm-code](https://huggingface.co/jinaai/jina-embeddings-v4-vllm-code) Please refer to the directory that matches your task for more details. </details> ## Jina-VDR Alongside `jina-embeddings-v4`, we’re releasing [Jina VDR](https://github.com/jina-ai/jina-vdr), a multilingual, multi-domain benchmark for visual document retrieval. The task collection can be viewed [here](https://huggingface.co/collections/jinaai/jinavdr-visual-document-retrieval-684831c022c53b21c313b449), and evaluation instructions can be found [here](https://github.com/jina-ai/jina-vdr). ## License This model was initially released under cc-by-nc-4.0 due to an error. The correct license is the Qwen Research License, as this model is derived from Qwen-2.5-VL-3B which is governed by that license. ## Contact Join our [Discord community](https://discord.jina.ai) and chat with other community members about ideas. ## Citation If you find `jina-embeddings-v4` useful in your research, please cite the following paper: ``` @misc{günther2025jinaembeddingsv4universalembeddingsmultimodal, title={jina-embeddings-v4: Universal Embeddings for Multimodal Multilingual Retrieval}, author={Michael Günther and Saba Sturua and Mohammad Kalim Akram and Isabelle Mohr and Andrei Ungureanu and Sedigheh Eslami and Scott Martens and Bo Wang and Nan Wang and Han Xiao}, year={2025}, eprint={2506.18902}, archivePrefix={arXiv}, primaryClass={cs.AI}, url={https://arxiv.org/abs/2506.18902}, } ```
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755588542
0xaoyama
2025-08-19T07:29:34Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:29:22Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
arx119/MyGemmaNPC
arx119
2025-08-19T07:29:17Z
0
0
transformers
[ "transformers", "tensorboard", "safetensors", "gemma3_text", "text-generation", "generated_from_trainer", "trl", "sft", "conversational", "base_model:google/gemma-3-270m-it", "base_model:finetune:google/gemma-3-270m-it", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:25:14Z
--- base_model: google/gemma-3-270m-it library_name: transformers model_name: MyGemmaNPC tags: - generated_from_trainer - trl - sft licence: license --- # Model Card for MyGemmaNPC This model is a fine-tuned version of [google/gemma-3-270m-it](https://huggingface.co/google/gemma-3-270m-it). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="arx119/MyGemmaNPC", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.6.0+cu124 - Datasets: 4.0.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
donoway/ARC-Easy_Llama-3.2-1B-oqrx1b71
donoway
2025-08-19T07:27:38Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:10:49Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: ARC-Easy_Llama-3.2-1B-oqrx1b71 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # ARC-Easy_Llama-3.2-1B-oqrx1b71 This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 3.7385 - Model Preparation Time: 0.0069 - Mdl: 3074.3332 - Accumulated Loss: 2130.9654 - Correct Preds: 371.0 - Total Preds: 570.0 - Accuracy: 0.6509 - Correct Gen Preds: 326.0 - Gen Accuracy: 0.5719 - Correct Gen Preds 32: 79.0 - Correct Preds 32: 103.0 - Total Labels 32: 158.0 - Accuracy 32: 0.6519 - Gen Accuracy 32: 0.5 - Correct Gen Preds 33: 110.0 - Correct Preds 33: 113.0 - Total Labels 33: 152.0 - Accuracy 33: 0.7434 - Gen Accuracy 33: 0.7237 - Correct Gen Preds 34: 91.0 - Correct Preds 34: 99.0 - Total Labels 34: 142.0 - Accuracy 34: 0.6972 - Gen Accuracy 34: 0.6408 - Correct Gen Preds 35: 46.0 - Correct Preds 35: 56.0 - Total Labels 35: 118.0 - Accuracy 35: 0.4746 - Gen Accuracy 35: 0.3898 - Correct Gen Preds 36: 0.0 - Correct Preds 36: 0.0 - Total Labels 36: 0.0 - Accuracy 36: 0.0 - Gen Accuracy 36: 0.0 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 64 - eval_batch_size: 112 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:| | No log | 0 | 0 | 1.5354 | 0.0069 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.4592 | 1.0 | 1 | 1.5354 | 0.0069 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.4587 | 2.0 | 2 | 2.8572 | 0.0069 | 2349.6051 | 1628.6221 | 188.0 | 570.0 | 0.3298 | 188.0 | 0.3298 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 46.0 | 46.0 | 152.0 | 0.3026 | 0.3026 | 141.0 | 141.0 | 142.0 | 0.9930 | 0.9930 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.7615 | 3.0 | 3 | 1.5150 | 0.0069 | 1245.8152 | 863.5333 | 173.0 | 570.0 | 0.3035 | 173.0 | 0.3035 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 151.0 | 151.0 | 152.0 | 0.9934 | 0.9934 | 8.0 | 8.0 | 142.0 | 0.0563 | 0.0563 | 14.0 | 14.0 | 118.0 | 0.1186 | 0.1186 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.683 | 4.0 | 4 | 1.3806 | 0.0069 | 1135.3136 | 786.9394 | 307.0 | 570.0 | 0.5386 | 254.0 | 0.4456 | 39.0 | 59.0 | 158.0 | 0.3734 | 0.2468 | 107.0 | 126.0 | 152.0 | 0.8289 | 0.7039 | 76.0 | 84.0 | 142.0 | 0.5915 | 0.5352 | 32.0 | 38.0 | 118.0 | 0.3220 | 0.2712 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0591 | 5.0 | 5 | 1.8312 | 0.0069 | 1505.8471 | 1043.7737 | 356.0 | 570.0 | 0.6246 | 262.0 | 0.4596 | 53.0 | 98.0 | 158.0 | 0.6203 | 0.3354 | 98.0 | 115.0 | 152.0 | 0.7566 | 0.6447 | 69.0 | 92.0 | 142.0 | 0.6479 | 0.4859 | 42.0 | 51.0 | 118.0 | 0.4322 | 0.3559 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0003 | 6.0 | 6 | 2.3233 | 0.0069 | 1910.5098 | 1324.2645 | 353.0 | 570.0 | 0.6193 | 288.0 | 0.5053 | 64.0 | 97.0 | 158.0 | 0.6139 | 0.4051 | 103.0 | 113.0 | 152.0 | 0.7434 | 0.6776 | 75.0 | 90.0 | 142.0 | 0.6338 | 0.5282 | 46.0 | 53.0 | 118.0 | 0.4492 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 7.0 | 7 | 2.6634 | 0.0069 | 2190.2029 | 1518.1330 | 366.0 | 570.0 | 0.6421 | 306.0 | 0.5368 | 66.0 | 101.0 | 158.0 | 0.6392 | 0.4177 | 108.0 | 115.0 | 152.0 | 0.7566 | 0.7105 | 81.0 | 95.0 | 142.0 | 0.6690 | 0.5704 | 51.0 | 55.0 | 118.0 | 0.4661 | 0.4322 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 8.0 | 8 | 2.9283 | 0.0069 | 2408.0786 | 1669.1529 | 365.0 | 570.0 | 0.6404 | 313.0 | 0.5491 | 67.0 | 101.0 | 158.0 | 0.6392 | 0.4241 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 87.0 | 96.0 | 142.0 | 0.6761 | 0.6127 | 50.0 | 55.0 | 118.0 | 0.4661 | 0.4237 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 9.0 | 9 | 3.1394 | 0.0069 | 2581.6660 | 1789.4745 | 370.0 | 570.0 | 0.6491 | 318.0 | 0.5579 | 70.0 | 104.0 | 158.0 | 0.6582 | 0.4430 | 110.0 | 115.0 | 152.0 | 0.7566 | 0.7237 | 88.0 | 97.0 | 142.0 | 0.6831 | 0.6197 | 50.0 | 54.0 | 118.0 | 0.4576 | 0.4237 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 10.0 | 10 | 3.2952 | 0.0069 | 2709.7573 | 1878.2607 | 368.0 | 570.0 | 0.6456 | 314.0 | 0.5509 | 73.0 | 101.0 | 158.0 | 0.6392 | 0.4620 | 109.0 | 114.0 | 152.0 | 0.75 | 0.7171 | 86.0 | 98.0 | 142.0 | 0.6901 | 0.6056 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 11.0 | 11 | 3.4102 | 0.0069 | 2804.3076 | 1943.7979 | 366.0 | 570.0 | 0.6421 | 318.0 | 0.5579 | 74.0 | 100.0 | 158.0 | 0.6329 | 0.4684 | 109.0 | 114.0 | 152.0 | 0.75 | 0.7171 | 89.0 | 98.0 | 142.0 | 0.6901 | 0.6268 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 12.0 | 12 | 3.4933 | 0.0069 | 2872.6570 | 1991.1741 | 366.0 | 570.0 | 0.6421 | 320.0 | 0.5614 | 74.0 | 100.0 | 158.0 | 0.6329 | 0.4684 | 110.0 | 114.0 | 152.0 | 0.75 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 13.0 | 13 | 3.5624 | 0.0069 | 2929.5074 | 2030.5798 | 364.0 | 570.0 | 0.6386 | 318.0 | 0.5579 | 75.0 | 100.0 | 158.0 | 0.6329 | 0.4747 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 88.0 | 97.0 | 142.0 | 0.6831 | 0.6197 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 14.0 | 14 | 3.6095 | 0.0069 | 2968.2088 | 2057.4056 | 365.0 | 570.0 | 0.6404 | 318.0 | 0.5579 | 71.0 | 100.0 | 158.0 | 0.6329 | 0.4494 | 111.0 | 114.0 | 152.0 | 0.75 | 0.7303 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 15.0 | 15 | 3.6542 | 0.0069 | 3004.9703 | 2082.8867 | 368.0 | 570.0 | 0.6456 | 319.0 | 0.5596 | 73.0 | 102.0 | 158.0 | 0.6456 | 0.4620 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 16.0 | 16 | 3.6640 | 0.0069 | 3013.0252 | 2088.4699 | 367.0 | 570.0 | 0.6439 | 321.0 | 0.5632 | 73.0 | 101.0 | 158.0 | 0.6392 | 0.4620 | 111.0 | 114.0 | 152.0 | 0.75 | 0.7303 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 17.0 | 17 | 3.6991 | 0.0069 | 3041.8667 | 2108.4613 | 369.0 | 570.0 | 0.6474 | 321.0 | 0.5632 | 76.0 | 103.0 | 158.0 | 0.6519 | 0.4810 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 18.0 | 18 | 3.7206 | 0.0069 | 3059.5550 | 2120.7219 | 370.0 | 570.0 | 0.6491 | 321.0 | 0.5632 | 77.0 | 104.0 | 158.0 | 0.6582 | 0.4873 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 19.0 | 19 | 3.7281 | 0.0069 | 3065.7453 | 2125.0127 | 368.0 | 570.0 | 0.6456 | 320.0 | 0.5614 | 74.0 | 102.0 | 158.0 | 0.6456 | 0.4684 | 110.0 | 114.0 | 152.0 | 0.75 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 54.0 | 118.0 | 0.4576 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 20.0 | 20 | 3.7380 | 0.0069 | 3073.8754 | 2130.6481 | 369.0 | 570.0 | 0.6474 | 321.0 | 0.5632 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 109.0 | 114.0 | 152.0 | 0.75 | 0.7171 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 21.0 | 21 | 3.7385 | 0.0069 | 3074.3332 | 2130.9654 | 371.0 | 570.0 | 0.6509 | 326.0 | 0.5719 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 22.0 | 22 | 3.7640 | 0.0069 | 3095.2993 | 2145.4980 | 366.0 | 570.0 | 0.6421 | 319.0 | 0.5596 | 75.0 | 101.0 | 158.0 | 0.6392 | 0.4747 | 108.0 | 113.0 | 152.0 | 0.7434 | 0.7105 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 23.0 | 23 | 3.7726 | 0.0069 | 3102.3483 | 2150.3840 | 367.0 | 570.0 | 0.6439 | 325.0 | 0.5702 | 81.0 | 102.0 | 158.0 | 0.6456 | 0.5127 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 55.0 | 118.0 | 0.4661 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 24.0 | 24 | 3.7770 | 0.0069 | 3105.9931 | 2152.9104 | 368.0 | 570.0 | 0.6456 | 321.0 | 0.5632 | 76.0 | 102.0 | 158.0 | 0.6456 | 0.4810 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 25.0 | 25 | 3.7813 | 0.0069 | 3109.4856 | 2155.3312 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 26.0 | 26 | 3.7764 | 0.0069 | 3105.4752 | 2152.5513 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 27.0 | 27 | 3.7828 | 0.0069 | 3110.7617 | 2156.2157 | 365.0 | 570.0 | 0.6404 | 321.0 | 0.5632 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 28.0 | 28 | 3.7887 | 0.0069 | 3115.5792 | 2159.5549 | 367.0 | 570.0 | 0.6439 | 321.0 | 0.5632 | 78.0 | 102.0 | 158.0 | 0.6456 | 0.4937 | 108.0 | 111.0 | 152.0 | 0.7303 | 0.7105 | 90.0 | 99.0 | 142.0 | 0.6972 | 0.6338 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 29.0 | 29 | 3.7980 | 0.0069 | 3123.2559 | 2164.8760 | 366.0 | 570.0 | 0.6421 | 324.0 | 0.5684 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 30.0 | 30 | 3.7857 | 0.0069 | 3113.0984 | 2157.8354 | 369.0 | 570.0 | 0.6474 | 325.0 | 0.5702 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 110.0 | 114.0 | 152.0 | 0.75 | 0.7237 | 92.0 | 99.0 | 142.0 | 0.6972 | 0.6479 | 44.0 | 54.0 | 118.0 | 0.4576 | 0.3729 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 31.0 | 31 | 3.8105 | 0.0069 | 3133.4788 | 2171.9620 | 367.0 | 570.0 | 0.6439 | 323.0 | 0.5667 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 109.0 | 111.0 | 152.0 | 0.7303 | 0.7171 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 32.0 | 32 | 3.7983 | 0.0069 | 3123.4747 | 2165.0277 | 368.0 | 570.0 | 0.6456 | 323.0 | 0.5667 | 80.0 | 103.0 | 158.0 | 0.6519 | 0.5063 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 89.0 | 98.0 | 142.0 | 0.6901 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 33.0 | 33 | 3.7838 | 0.0069 | 3111.5678 | 2156.7744 | 368.0 | 570.0 | 0.6456 | 320.0 | 0.5614 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 34.0 | 34 | 3.8000 | 0.0069 | 3124.8632 | 2165.9901 | 366.0 | 570.0 | 0.6421 | 320.0 | 0.5614 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 108.0 | 111.0 | 152.0 | 0.7303 | 0.7105 | 88.0 | 97.0 | 142.0 | 0.6831 | 0.6197 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 35.0 | 35 | 3.8131 | 0.0069 | 3135.6651 | 2173.4774 | 363.0 | 570.0 | 0.6368 | 320.0 | 0.5614 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 107.0 | 110.0 | 152.0 | 0.7237 | 0.7039 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 36.0 | 36 | 3.7965 | 0.0069 | 3121.9935 | 2164.0010 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 89.0 | 98.0 | 142.0 | 0.6901 | 0.6268 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 37.0 | 37 | 3.7996 | 0.0069 | 3124.5287 | 2165.7583 | 368.0 | 570.0 | 0.6456 | 322.0 | 0.5649 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 38.0 | 38 | 3.7855 | 0.0069 | 3112.9473 | 2157.7307 | 369.0 | 570.0 | 0.6474 | 324.0 | 0.5684 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 44.0 | 54.0 | 118.0 | 0.4576 | 0.3729 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 39.0 | 39 | 3.7976 | 0.0069 | 3122.9250 | 2164.6467 | 366.0 | 570.0 | 0.6421 | 322.0 | 0.5649 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 108.0 | 111.0 | 152.0 | 0.7303 | 0.7105 | 89.0 | 97.0 | 142.0 | 0.6831 | 0.6268 | 46.0 | 56.0 | 118.0 | 0.4746 | 0.3898 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 40.0 | 40 | 3.7913 | 0.0069 | 3117.7141 | 2161.0348 | 366.0 | 570.0 | 0.6421 | 323.0 | 0.5667 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 41.0 | 41 | 3.8044 | 0.0069 | 3128.4659 | 2168.4873 | 370.0 | 570.0 | 0.6491 | 321.0 | 0.5632 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 107.0 | 112.0 | 152.0 | 0.7368 | 0.7039 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 42.0 | 42 | 3.8034 | 0.0069 | 3127.6742 | 2167.9386 | 367.0 | 570.0 | 0.6439 | 323.0 | 0.5667 | 79.0 | 103.0 | 158.0 | 0.6519 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 89.0 | 96.0 | 142.0 | 0.6761 | 0.6268 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 43.0 | 43 | 3.7958 | 0.0069 | 3121.3983 | 2163.5884 | 367.0 | 570.0 | 0.6439 | 323.0 | 0.5667 | 80.0 | 102.0 | 158.0 | 0.6456 | 0.5063 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 97.0 | 142.0 | 0.6831 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 44.0 | 44 | 3.8052 | 0.0069 | 3129.1145 | 2168.9369 | 366.0 | 570.0 | 0.6421 | 321.0 | 0.5632 | 77.0 | 101.0 | 158.0 | 0.6392 | 0.4873 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 91.0 | 98.0 | 142.0 | 0.6901 | 0.6408 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 45.0 | 45 | 3.7989 | 0.0069 | 3123.9498 | 2165.3570 | 367.0 | 570.0 | 0.6439 | 324.0 | 0.5684 | 79.0 | 102.0 | 158.0 | 0.6456 | 0.5 | 110.0 | 113.0 | 152.0 | 0.7434 | 0.7237 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 46.0 | 46 | 3.8045 | 0.0069 | 3128.6029 | 2168.5823 | 369.0 | 570.0 | 0.6474 | 322.0 | 0.5649 | 76.0 | 102.0 | 158.0 | 0.6456 | 0.4810 | 109.0 | 113.0 | 152.0 | 0.7434 | 0.7171 | 92.0 | 99.0 | 142.0 | 0.6972 | 0.6479 | 45.0 | 55.0 | 118.0 | 0.4661 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 47.0 | 47 | 3.8041 | 0.0069 | 3128.2620 | 2168.3460 | 367.0 | 570.0 | 0.6439 | 324.0 | 0.5684 | 81.0 | 103.0 | 158.0 | 0.6519 | 0.5127 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 48.0 | 48 | 3.7913 | 0.0069 | 3117.7010 | 2161.0257 | 367.0 | 570.0 | 0.6439 | 321.0 | 0.5632 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 91.0 | 99.0 | 142.0 | 0.6972 | 0.6408 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 49.0 | 49 | 3.8082 | 0.0069 | 3131.6407 | 2170.6880 | 365.0 | 570.0 | 0.6404 | 321.0 | 0.5632 | 78.0 | 101.0 | 158.0 | 0.6392 | 0.4937 | 108.0 | 112.0 | 152.0 | 0.7368 | 0.7105 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 50.0 | 50 | 3.8087 | 0.0069 | 3132.0417 | 2170.9659 | 367.0 | 570.0 | 0.6439 | 322.0 | 0.5649 | 78.0 | 103.0 | 158.0 | 0.6519 | 0.4937 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 54.0 | 118.0 | 0.4576 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 51.0 | 51 | 3.7933 | 0.0069 | 3119.3595 | 2162.1753 | 368.0 | 570.0 | 0.6456 | 321.0 | 0.5632 | 77.0 | 102.0 | 158.0 | 0.6456 | 0.4873 | 109.0 | 112.0 | 152.0 | 0.7368 | 0.7171 | 90.0 | 98.0 | 142.0 | 0.6901 | 0.6338 | 45.0 | 56.0 | 118.0 | 0.4746 | 0.3814 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
nightmedia/Cydonia-24B-v4.1-q6-mlx
nightmedia
2025-08-19T07:24:42Z
0
0
mlx
[ "mlx", "safetensors", "mistral", "text-generation", "conversational", "base_model:TheDrummer/Cydonia-24B-v4.1", "base_model:quantized:TheDrummer/Cydonia-24B-v4.1", "6-bit", "region:us" ]
text-generation
2025-08-19T06:13:01Z
--- base_model: TheDrummer/Cydonia-24B-v4.1 library_name: mlx tags: - mlx pipeline_tag: text-generation --- # Cydonia-24B-v4.1-q6-mlx This model [Cydonia-24B-v4.1-q6-mlx](https://huggingface.co/Cydonia-24B-v4.1-q6-mlx) was converted to MLX format from [TheDrummer/Cydonia-24B-v4.1](https://huggingface.co/TheDrummer/Cydonia-24B-v4.1) using mlx-lm version **0.26.3**. ## Use with mlx ```bash pip install mlx-lm ``` ```python from mlx_lm import load, generate model, tokenizer = load("Cydonia-24B-v4.1-q6-mlx") prompt = "hello" if tokenizer.chat_template is not None: messages = [{"role": "user", "content": prompt}] prompt = tokenizer.apply_chat_template( messages, add_generation_prompt=True ) response = generate(model, tokenizer, prompt=prompt, verbose=True) ```
VoilaRaj/78_w9weWC
VoilaRaj
2025-08-19T07:24:30Z
0
0
null
[ "safetensors", "any-to-any", "omega", "omegalabs", "bittensor", "agi", "license:mit", "region:us" ]
any-to-any
2025-08-19T07:20:40Z
--- license: mit tags: - any-to-any - omega - omegalabs - bittensor - agi --- This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet. Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05
joanna302
2025-08-19T07:22:08Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "unsloth", "sft", "trl", "conversational", "base_model:unsloth/Qwen3-1.7B-Base", "base_model:finetune:unsloth/Qwen3-1.7B-Base", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:13:21Z
--- base_model: unsloth/Qwen3-1.7B-Base library_name: transformers model_name: Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05 tags: - generated_from_trainer - unsloth - sft - trl licence: license --- # Model Card for Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05 This model is a fine-tuned version of [unsloth/Qwen3-1.7B-Base](https://huggingface.co/unsloth/Qwen3-1.7B-Base). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_8e-05/runs/0n0rwdqr) This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.8.0 - Datasets: 3.6.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
yaelahnal/blockassist-bc-mute_clawed_crab_1755587986
yaelahnal
2025-08-19T07:20:56Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "mute clawed crab", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:20:38Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - mute clawed crab --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05
joanna302
2025-08-19T07:20:11Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "trl", "unsloth", "sft", "conversational", "base_model:unsloth/Qwen3-1.7B-Base", "base_model:finetune:unsloth/Qwen3-1.7B-Base", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-18T19:26:17Z
--- base_model: unsloth/Qwen3-1.7B-Base library_name: transformers model_name: Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05 tags: - generated_from_trainer - trl - unsloth - sft licence: license --- # Model Card for Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05 This model is a fine-tuned version of [unsloth/Qwen3-1.7B-Base](https://huggingface.co/unsloth/Qwen3-1.7B-Base). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="joanna302/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/prism-eval/Qwen3-1.7B-Base_pag_mt_alpaca_0.33_part_SFT_2e-05/runs/etq37ph9) This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.8.0 - Datasets: 3.6.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
Suprim003/a2c-PandaReachDense-v3
Suprim003
2025-08-19T07:19:25Z
0
0
stable-baselines3
[ "stable-baselines3", "PandaReachDense-v3", "deep-reinforcement-learning", "reinforcement-learning", "model-index", "region:us" ]
reinforcement-learning
2025-08-19T07:10:36Z
--- library_name: stable-baselines3 tags: - PandaReachDense-v3 - deep-reinforcement-learning - reinforcement-learning - stable-baselines3 model-index: - name: A2C results: - task: type: reinforcement-learning name: reinforcement-learning dataset: name: PandaReachDense-v3 type: PandaReachDense-v3 metrics: - type: mean_reward value: -0.19 +/- 0.08 name: mean_reward verified: false --- # **A2C** Agent playing **PandaReachDense-v3** This is a trained model of a **A2C** agent playing **PandaReachDense-v3** using the [stable-baselines3 library](https://github.com/DLR-RM/stable-baselines3). ## Usage (with Stable-baselines3) TODO: Add your code ```python from stable_baselines3 import ... from huggingface_sb3 import load_from_hub ... ```
michaelcpage345/blockassist-bc-miniature_deadly_anteater_1755586150
michaelcpage345
2025-08-19T07:19:13Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "miniature deadly anteater", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:19:10Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - miniature deadly anteater --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755587787
IvanJAjebu
2025-08-19T07:17:54Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:17:30Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755586711
Sayemahsjn
2025-08-19T07:17:46Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "playful feline octopus", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:17:41Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - playful feline octopus --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
yaelahnal/blockassist-bc-mute_clawed_crab_1755587579
yaelahnal
2025-08-19T07:14:05Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "mute clawed crab", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:13:47Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - mute clawed crab --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
forstseh/blockassist-bc-arctic_soaring_heron_1755583649
forstseh
2025-08-19T07:12:57Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "arctic soaring heron", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:12:42Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - arctic soaring heron --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755587521
0xaoyama
2025-08-19T07:12:34Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:12:23Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
lqpl/blockassist-bc-hairy_insectivorous_antelope_1755587466
lqpl
2025-08-19T07:12:31Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "hairy insectivorous antelope", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:12:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - hairy insectivorous antelope --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
jasminekitty328/full_4000_intentconan
jasminekitty328
2025-08-19T07:11:42Z
0
0
transformers
[ "transformers", "safetensors", "t5", "text2text-generation", "arxiv:1910.09700", "text-generation-inference", "endpoints_compatible", "region:us" ]
null
2025-08-19T07:11:10Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
insanesaga/Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison
insanesaga
2025-08-19T07:09:35Z
0
0
transformers
[ "transformers", "safetensors", "qwen2", "text-generation", "generated_from_trainer", "rl-swarm", "grpo", "gensyn", "I am nocturnal clawed bison", "unsloth", "trl", "genrl-swarm", "I am nocturnal_clawed_bison", "conversational", "arxiv:2402.03300", "base_model:Gensyn/Qwen2.5-1.5B-Instruct", "base_model:finetune:Gensyn/Qwen2.5-1.5B-Instruct", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-05-27T13:39:41Z
--- base_model: Gensyn/Qwen2.5-1.5B-Instruct library_name: transformers model_name: Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison tags: - generated_from_trainer - rl-swarm - grpo - gensyn - I am nocturnal clawed bison - unsloth - trl - genrl-swarm - I am nocturnal_clawed_bison licence: license --- # Model Card for Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison This model is a fine-tuned version of [Gensyn/Qwen2.5-1.5B-Instruct](https://huggingface.co/Gensyn/Qwen2.5-1.5B-Instruct). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="insanesaga/Qwen2.5-1.5B-Instruct-Gensyn-Swarm-nocturnal_clawed_bison", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure This model was trained with GRPO, a method introduced in [DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models](https://huggingface.co/papers/2402.03300). ### Framework versions - TRL: 0.15.2 - Transformers: 4.51.3 - Pytorch: 2.5.1 - Datasets: 3.6.0 - Tokenizers: 0.21.1 ## Citations Cite GRPO as: ```bibtex @article{zhihong2024deepseekmath, title = {{DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models}}, author = {Zhihong Shao and Peiyi Wang and Qihao Zhu and Runxin Xu and Junxiao Song and Mingchuan Zhang and Y. K. Li and Y. Wu and Daya Guo}, year = 2024, eprint = {arXiv:2402.03300}, } ``` Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallouédec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755587338
0xaoyama
2025-08-19T07:09:33Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T07:09:20Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
BlazePro12/merged_grok_data_mcp_3
BlazePro12
2025-08-19T07:05:00Z
0
0
transformers
[ "transformers", "tensorboard", "safetensors", "generated_from_trainer", "trl", "sft", "base_model:google/gemma-3-270m-it", "base_model:finetune:google/gemma-3-270m-it", "endpoints_compatible", "region:us" ]
null
2025-08-19T06:51:50Z
--- base_model: google/gemma-3-270m-it library_name: transformers model_name: merged_grok_data_mcp_3 tags: - generated_from_trainer - trl - sft licence: license --- # Model Card for merged_grok_data_mcp_3 This model is a fine-tuned version of [google/gemma-3-270m-it](https://huggingface.co/google/gemma-3-270m-it). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="BlazePro12/merged_grok_data_mcp_3", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.8.0 - Datasets: 4.0.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
amoriodi/model-test-2
amoriodi
2025-08-19T07:04:42Z
0
0
peft
[ "peft", "safetensors", "llama", "text-generation", "axolotl", "base_model:adapter:meta-llama/Llama-3.1-8B-Instruct", "lora", "transformers", "conversational", "dataset:amoriodi/example_dataset", "base_model:meta-llama/Llama-3.1-8B-Instruct", "license:llama3.1", "text-generation-inference", "endpoints_compatible", "4-bit", "bitsandbytes", "region:us" ]
text-generation
2025-08-19T07:04:28Z
--- library_name: peft license: llama3.1 base_model: meta-llama/Llama-3.1-8B-Instruct tags: - axolotl - base_model:adapter:meta-llama/Llama-3.1-8B-Instruct - lora - transformers datasets: - amoriodi/example_dataset pipeline_tag: text-generation model-index: - name: outputs/llama-sft-reverse results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> [<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/axolotl-ai-cloud/axolotl) <details><summary>See axolotl config</summary> axolotl version: `0.13.0.dev0` ```yaml adapter: qlora base_model: meta-llama/Llama-3.1-8B-Instruct bf16: false chat_template: qwen3 dataloader_num_workers: 2 dataloader_pin_memory: true dataloader_prefetch_factor: 8 datasets: - path: amoriodi/example_dataset split: train type: chat_template embedding_skip_upcast: true fp16: true gradient_accumulation_steps: 1 gradient_checkpointing: true gradient_checkpointing_kwargs: use_reentrant: false learning_rate: 0.00019 load_in_4bit: true logging_steps: 1 lora_alpha: 64 lora_mlp_kernel: true lora_o_kernel: true lora_qkv_kernel: true lora_r: 32 lora_target_modules: - q_proj - k_proj - v_proj - o_proj - gate_proj - up_proj - down_proj lr_scheduler: cosine max_grad_norm: 0.1 micro_batch_size: 1 num_epochs: 1 optimizer: paged_adamw_8bit output_dir: ./outputs/llama-sft-reverse plugins: - axolotl.integrations.cut_cross_entropy.CutCrossEntropyPlugin sample_packing: true saves_per_epoch: 2 sequence_len: 4096 special_tokens: pad_token: <|end_of_text|> warmup_steps: 5 ``` </details><br> # outputs/llama-sft-reverse This model is a fine-tuned version of [meta-llama/Llama-3.1-8B-Instruct](https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct) on the amoriodi/example_dataset dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.00019 - train_batch_size: 1 - eval_batch_size: 1 - seed: 42 - optimizer: Use OptimizerNames.PAGED_ADAMW_8BIT with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_steps: 5 - training_steps: 1296 - mixed_precision_training: Native AMP ### Training results ### Framework versions - PEFT 0.17.0 - Transformers 4.55.2 - Pytorch 2.7.1+cu126 - Datasets 4.0.0 - Tokenizers 0.21.4
djc05142/cst_quantized_model_v3
djc05142
2025-08-19T07:02:11Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "conversational", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T07:00:56Z
--- library_name: transformers tags: [] --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755586670
IvanJAjebu
2025-08-19T06:59:19Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:58:56Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
yaelahnal/blockassist-bc-mute_clawed_crab_1755586657
yaelahnal
2025-08-19T06:58:55Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "mute clawed crab", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:58:29Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - mute clawed crab --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
KCS97/rc_car
KCS97
2025-08-19T06:58:18Z
0
0
diffusers
[ "diffusers", "tensorboard", "safetensors", "text-to-image", "dreambooth", "diffusers-training", "stable-diffusion", "stable-diffusion-diffusers", "base_model:stable-diffusion-v1-5/stable-diffusion-v1-5", "base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5", "license:creativeml-openrail-m", "autotrain_compatible", "endpoints_compatible", "diffusers:StableDiffusionPipeline", "region:us" ]
text-to-image
2025-08-19T06:45:17Z
--- base_model: stable-diffusion-v1-5/stable-diffusion-v1-5 library_name: diffusers license: creativeml-openrail-m inference: true instance_prompt: a photo of sks toy tags: - text-to-image - dreambooth - diffusers-training - stable-diffusion - stable-diffusion-diffusers --- <!-- This model card has been generated automatically according to the information the training script had access to. You should probably proofread and complete it, then remove this comment. --> # DreamBooth - KCS97/rc_car This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks toy using [DreamBooth](https://dreambooth.github.io/). You can find some example images in the following. DreamBooth for the text encoder was enabled: False. ## Intended uses & limitations #### How to use ```python # TODO: add an example code snippet for running this diffusion pipeline ``` #### Limitations and bias [TODO: provide examples of latent issues and potential remediations] ## Training details [TODO: describe the data used to train the model]
XiangDeyi/xdytest1
XiangDeyi
2025-08-19T06:58:14Z
0
0
null
[ "license:apache-2.0", "region:us" ]
null
2025-08-19T06:58:14Z
--- license: apache-2.0 ---
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755586541
0xaoyama
2025-08-19T06:56:13Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:56:02Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
resistz/sft_Qwen3-8B-Base_ultra200k_lora32
resistz
2025-08-19T06:55:24Z
0
0
peft
[ "peft", "safetensors", "base_model:adapter:Qwen/Qwen3-8B-Base", "lora", "sft", "trl", "text-generation", "conversational", "base_model:Qwen/Qwen3-8B-Base", "region:us" ]
text-generation
2025-08-19T06:54:12Z
--- library_name: peft model_name: sft_Qwen3-8B-Base_ultra200k_lora32 tags: - base_model:adapter:Qwen/Qwen3-8B-Base - lora - sft - trl licence: license pipeline_tag: text-generation base_model: Qwen/Qwen3-8B-Base --- # Model Card for sft_Qwen3-8B-Base_ultra200k_lora32 This model is a fine-tuned version of [None](https://huggingface.co/None). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="None", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/resistzzz97/Alignment_Influence/runs/9rimz0x9) This model was trained with SFT. ### Framework versions - PEFT 0.17.0 - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.7.1 - Datasets: 4.0.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
quantumxnode/blockassist-bc-dormant_peckish_seahorse_1755584819
quantumxnode
2025-08-19T06:54:43Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "dormant peckish seahorse", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:54:39Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - dormant peckish seahorse --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
resistz/sft_Qwen3-4B-Base_ultra200k
resistz
2025-08-19T06:53:44Z
0
0
transformers
[ "transformers", "safetensors", "qwen3", "text-generation", "generated_from_trainer", "sft", "trl", "conversational", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:49:25Z
--- library_name: transformers model_name: sft_Qwen3-4B-Base_ultra200k tags: - generated_from_trainer - sft - trl licence: license --- # Model Card for sft_Qwen3-4B-Base_ultra200k This model is a fine-tuned version of [None](https://huggingface.co/None). It has been trained using [TRL](https://github.com/huggingface/trl). ## Quick start ```python from transformers import pipeline question = "If you had a time machine, but could only go to the past or the future once and never return, which would you choose and why?" generator = pipeline("text-generation", model="None", device="cuda") output = generator([{"role": "user", "content": question}], max_new_tokens=128, return_full_text=False)[0] print(output["generated_text"]) ``` ## Training procedure [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="150" height="24"/>](https://wandb.ai/resistzzz97/Alignment_Influence/runs/eswkk8st) This model was trained with SFT. ### Framework versions - TRL: 0.21.0 - Transformers: 4.55.2 - Pytorch: 2.7.1 - Datasets: 4.0.0 - Tokenizers: 0.21.4 ## Citations Cite TRL as: ```bibtex @misc{vonwerra2022trl, title = {{TRL: Transformer Reinforcement Learning}}, author = {Leandro von Werra and Younes Belkada and Lewis Tunstall and Edward Beeching and Tristan Thrush and Nathan Lambert and Shengyi Huang and Kashif Rasul and Quentin Gallou{\'e}dec}, year = 2020, journal = {GitHub repository}, publisher = {GitHub}, howpublished = {\url{https://github.com/huggingface/trl}} } ```
Lupakisyo/Fai1
Lupakisyo
2025-08-19T06:53:18Z
0
0
transformers
[ "transformers", "tensorboard", "safetensors", "bert", "text-classification", "autotrain", "base_model:google-bert/bert-base-uncased", "base_model:finetune:google-bert/bert-base-uncased", "autotrain_compatible", "endpoints_compatible", "region:us" ]
text-classification
2025-08-19T06:48:57Z
--- library_name: transformers tags: - autotrain - text-classification base_model: google-bert/bert-base-uncased widget: - text: "I love AutoTrain" --- # Model Trained Using AutoTrain - Problem type: Text Classification ## Validation Metrics loss: 1.0608001947402954 f1_macro: 0.27777777777777773 f1_micro: 0.4 f1_weighted: 0.3416666666666667 precision_macro: 0.26666666666666666 precision_micro: 0.4 precision_weighted: 0.32 recall_macro: 0.31746031746031744 recall_micro: 0.4 recall_weighted: 0.4 accuracy: 0.4
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755586280
IvanJAjebu
2025-08-19T06:52:32Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:52:24Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755586155
0xaoyama
2025-08-19T06:49:47Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:49:36Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
HoangVuSnape/vietnamese-document-embedding_pr_v2_ep30_new
HoangVuSnape
2025-08-19T06:49:05Z
0
0
sentence-transformers
[ "sentence-transformers", "safetensors", "Vietnamese", "sentence-similarity", "feature-extraction", "dense", "generated_from_trainer", "dataset_size:1472", "loss:MatryoshkaLoss", "loss:MultipleNegativesRankingLoss", "custom_code", "arxiv:1908.10084", "arxiv:2205.13147", "arxiv:1705.00652", "base_model:dangvantuan/vietnamese-document-embedding", "base_model:finetune:dangvantuan/vietnamese-document-embedding", "model-index", "autotrain_compatible", "endpoints_compatible", "region:us" ]
sentence-similarity
2025-08-19T06:47:29Z
--- tags: - sentence-transformers - sentence-similarity - feature-extraction - dense - generated_from_trainer - dataset_size:1472 - loss:MatryoshkaLoss - loss:MultipleNegativesRankingLoss base_model: dangvantuan/vietnamese-document-embedding widget: - source_sentence: Những điểm đặc biệt của chương trình học là gì? sentences: - 'Các phòng thí nghiệm này giúp sinh viên thực hành và nghiên cứu các phản ứng hoá học, phân tích chất lượng sản phẩm và môi trường. CÁC ĐIỂM ĐẶC BIỆT Chương trình học thực tiễn: Sinh viên có cơ hội tham gia các nghiên cứu thực tế tại các phòng thí nghiệm của trường và các công ty, giúp họ phát triển các kỹ năng thực hành và nghiên cứu hoá học. Môi trường học tập quốc tế: Sinh viên có cơ hội tham gia các chương trình trao đổi sinh viên và hợp tác nghiên cứu với các đối tác quốc tế trong lĩnh vực hoá học. Học bổng và cơ hội du học: Các chương trình học bổng và cơ hội du học bậc thạc sĩ, tiến sĩ tại các trường đại học danh tiếng trên thế giới. TRIỂN VỌNG NGHỀ NGHIỆP & CƠ HỘI VIỆC LÀM Sinh viên tốt nghiệp ngành Hoá học có thể làm việc trong các lĩnh vực như: Công nghiệp hoá chất và dược phẩm: Làm việc tại các công ty sản xuất hoá chất, dược phẩm, sản xuất vật liệu và sản phẩm hoá học khác. Ngành thực phẩm và bảo vệ môi trường: Nghiên cứu và phát triển các sản phẩm thực phẩm, phân tích chất lượng thực phẩm, và xử lý chất thải hoá học trong công nghiệp.' - 'Trường Đại học Ngoại Thương Cơ sở II Tiếng Anh: Foreign Trade University Ho Chi Minh City Campus (FTU2) Trường Đại học Ngoại Thương cơ sở II là cơ sở đào tạo phía Nam của Trường Đại học Ngoại thương tại Hà Nội, đại học chuyên ngành kinh tế đầu ngành tại Việt Nam và thành viên của Bộ Giáo dục và Đào tạo. Cơ sở này được thành lập dựa trên nhu cầu đào tạo cán bộ trong lĩnh vực kinh tế và kinh doanh quốc tế tại các tỉnh thành phía Nam trong giai đoạn hội nhập kinh tế quốc tế. Cơ sở được thành lập theo Quyết định số 1485/GD-ĐT ngày 16/07/1993 của Bộ trưởng Bộ Giáo dục và Đào tạo Việt Nam. Tên trường: Trường Đại học Ngoại thương (Cơ sở 2) Tên tiếng Anh: Foreign Trade University (FTU) Mã trường: NTS Trực thuộc: Bộ Giáo dục và Đào tạo Loại trường: Công lập Loại hình đào tạo: Đại học – Sau đại học Lĩnh vực: Kinh tế Địa chỉ: Số 15 Đường D5, Khu Văn Thánh Bắc, Phường 25, Quận Bình Thạnh, TP Hồ Chí Minh Điện thoại: Email: Website: http://cs2.ftu.edu.vn/ Fanpage: https://www.facebook.com/ftu2hcmc/ Lịch sử 1962 Ngày 20/06/1962, theo Quyết định của Thủ tướng Chính phủ, Khoa Quan hệ Quốc tế tách khỏi Trường Đại học Kinh tế - Tài chính để thành lập Trường Cán bộ Ngoại giao - Ngoại thương trực thuộc Bộ Ngoại giao. Trụ sở ban đầu được đặt tại làng Láng, tỉnh Hà Đông (nay là phường Láng Thượng, Hà Nội). 1967 Ngày 05/08/1967, theo đề nghị của Bộ Ngoại giao và Bộ Ngoại thương, Thủ tướng Phạm Văn Đồng đã ký Quyết định số 123/CP, chia tách Trường Cán bộ Ngoại giao - Ngoại thương thành hai trường: Trường Ngoại giao (nay là Học viện Ngoại giao) trực thuộc Bộ Ngoại giao. Trường Ngoại thương thuộc Bộ Ngoại thương (nay là Bộ Công Thương). 1985 Trường Đại học Ngoại thương chuyển từ Bộ Ngoại thương sang trực thuộc Bộ Đại học và Trung học Chuyên nghiệp (nay là Bộ Giáo dục và Đào tạo). 1993 Ngày 16/07/1993, xuất phát từ nhu cầu đào tạo cán bộ kinh tế và kinh doanh quốc tế tại Thành phố Hồ Chí Minh và các tỉnh thành phía Nam, Cơ sở II Trường Đại học Ngoại thương tại TP.' - 'Điểm xét tuyển được làm tròn đến 02 chữ số thập phân. - Điểm xét tuyển được xác định như sau (làm tròn đến 02 chữ số thập phân): Điểm xét tuyển = [(ĐM1*HS môn 1+ ĐM2*HS môn 2 + ĐM3 * HS môn 3)*3]/(Tổng hệ số) + Điểm ưu tiên Khu vực + Điểm ưu tiên đối tượng. (*) Điểm trúng tuyển ngành Luật, Luật kinh tế: tổ hợp Văn, Sử, Địa cao hơn 1.5 điểm. (1) Ngành ngôn ngữ Anh, ngôn ngữ Trung Quốc, ngôn ngữ Nhật, ngôn ngữ Hàn Quốc: Ngoại ngữ nhân hệ số 2. (2) Các ngành Khoa học máy tính, Khoa học máy tính Chất lượng cao, Công nghệ thông tin, CTKT công trình xây dựng, CNKT công trình xây dựng Chất lượng cao, Quản lý xây dựng: Toán nhân hệ số 2. (3) Các ngành Chất lượng cao: Luật kinh tế, Ngôn ngữ Anh, Ngôn ngữ Trung Quốc, Quản trị kinh doanh, Tài chính ngân hàng, Kế toán: Ngoại ngữ hệ số 2. VII.Điểm chuẩn Trường ĐH Mở TP.HCM năm 2021 dựa vào kết quả học tập THPT(học bạ) i.' - source_sentence: Nguyên tắc xét tuyển của Trường được áp dụng như thế nào khi thí sinh đăng ký nhiều nguyện vọng hoặc nhiều phương thức xét tuyển? sentences: - '4. Đối với phương thức kết hợp thi tuyển và xét tuyển 4.1. Thí sinh dự xét tuyển ngành Giáo dục Mầm non trình độ đại học Phải tham gia kỳ thi năng khiếu do Trường Đại học Sư phạm Thành phố Hồ Chí Minh tổ chức và có kết quả đạt từ 5,0 điểm trở lên; Đối với thí sinh xét tuyển sử dụng kết quả thi tốt nghiệp THPT năm 2024: ngưỡng điểm đảm bảo chất lượng đầu vào, điều kiện nhận hồ sơ đăng ký xét tuyển được thông báo chính thức sau khi Bộ Giáo dục và Đào tạo xác định ngưỡng đảm bảo chất lượng đầu vào đại học (căn cứ kết quả kỳ thi tốt nghiệp THPT năm 2024). Đối với thí sinh xét tuyển sử dụng kết quả học tập THPT: chỉ áp dụng đối với thí sinh tốt nghiệp THPT năm 2024 đồng thời phải thỏa một trong hai điều kiện sau: + Có học lực lớp 12 xếp loại giỏi; + Có điểm xét tốt nghiệp THPT từ 8,0 trở lên. 4.2. Thí sinh dự xét tuyển ngành Giáo dục Mầm non trình độ cao đẳng Phải tham gia kỳ thi năng khiếu do Trường Đại học Sư phạm Thành phố Hồ Chí Minh tổ chức và có kết quả đạt từ 5,0 điểm trở lên; Đối với thí sinh xét tuyển sử dụng kết quả thi tốt nghiệp THPT năm 2024: ngưỡng điểm đảm bảo chất lượng đầu vào, điều kiện nhận hồ sơ đăng ký xét tuyển được thông báo chính thức sau khi Bộ Giáo dục và Đào tạo xác định ngưỡng đảm bảo chất lượng đầu vào đại học (căn cứ kết quả kỳ thi tốt nghiệp THPT năm 2024). Đối với thí sinh xét tuyển sử dụng kết quả học tập THPT: chỉ áp dụng đối với thí sinh tốt nghiệp THPT năm 2024 đồng thời phải thỏa một trong hai điều kiện sau: + Có học lực lớp 12 xếp loại khá; + Có điểm xét tốt nghiệp THPT từ 6,5 trở lên. 4.3. Thí sinh dự xét tuyển ngành Giáo dục Thể chất Phải tham gia kỳ thi năng khiếu do Trường Đại học Sư phạm Thành phố Hồ Chí Minh tổ chức và có kết quả đạt từ 5,0 điểm trở lên; Đối với thí sinh xét tuyển sử dụng điểm thi tốt nghiệp THPT năm 2024: ngưỡng điểm đảm bảo chất lượng đầu vào, điều kiện nhận hồ sơ đăng ký xét tuyển được thông báo chính thức sau khi Bộ Giáo dục và Đào tạo xác định ngưỡng đảm bảo chất lượng đầu vào đại học (căn cứ kết quả kỳ thi tốt nghiệp THPT năm 2024); Đối với thí sinh xét tuyển sử dụng kết quả học tập THPT: chỉ áp dụng đối với thí sinh tốt nghiệp THPT năm 2024 đồng thời thỏa thêm một trong các điều kiện sau: + Có học lực lớp 12 xếp loại khá trở lên; + Có điểm xét tốt nghiệp THPT từ 6,5 trở lên; + Là vận động viên cấp 1, kiện tướng, vận động viên đã từng đoạt huy chương tại Hội khỏe Phù Đổng, các giải trẻ quốc gia và quốc tế hoặc giải vô địch quốc gia và quốc tế có điểm thi năng khiếu do trường tổ chức đạt loại xuất sắc (từ 9,0 trở lên theo thang điểm 10,0).' - 'Danh mục các ngành điều kiện nộp hồ sơ xét tuyển (xem tại đây). Quy định chứng chỉ tiếng Anh quốc tế tương đương (xem tại đây) 6. Xét tuyển thẳng, ưu tiên xét tuyển theo Quy chế của Bộ GD&ĐT – Mã phương thức 301: Thực hiện theo quy định của Bộ GD&ĐT 7. Các lưu ý khi đăng ký NVXT và nguyên tắc xét tuyển trên hệ thống Bộ a. Các lưu ý khi đăng ký NVXT Thí sinh nên tra cứu thông tin các nguyện vọng đăng ký xét tuyển vào TDTU theo phương thức riêng tại: https://tracuuxettuyen.tdtu.edu.vn trước khi đăng ký nguyện vọng lên hệ thống của Bộ GD&ĐT. Số CMND/CCCD thí sinh đã đăng ký xét tuyển trên hệ thống của TDTU; đăng ký phương thức 4 trên hệ thống của Đại học Quốc gia TP.HCM phải trùng khớp với số CMND/CCCD sử dụng đăng ký tài khoản trên hệ thống của Bộ GD&ĐT. Trường hợp thí sinh đã đăng ký số CMND/CCCD không trùng khớp nhau giữa các hệ thống trên, thí sinh phải liên hệ với TDTU để được hỗ trợ cập nhật lại số CMND/CCCD cho trùng khớp với hệ thống của Bộ trước khi đăng ký nguyện vọng. Thí sinh sẽ không đủ điều kiện xét tuyển nếu không sử dụng cùng 1 số CMND/CCCD đăng ký giữa các hệ thống trên. Thí sinh xét tuyển vào chương trình đại học bằng tiếng Anh, chương trình liên kết quốc tế nhưng không nộp chứng chỉ tiếng Anh theo quy định, không dự thi năng lực tiếng Anh hoặc dự thi năng lực tiếng Anh kết quả không đạt nếu đủ điểm trúng tuyển sẽ trúng tuyển vào chương trình dự bị tiếng Anh. Khi thí sinh làm thủ tục nhập học, Nhà trường sẽ tổ chức cho thí sinh thi đánh giá năng lực tiếng Anh. Nếu kết quả thi đánh giá năng lực của thí sinh đạt trình độ tiếng Anh theo yêu cầu của chương trình (B1 đối với chương trình đại học bằng tiếng Anh, B2 đối với chương trình liên kết đào tạo quốc tế) sẽ được nhập học vào chương trình chính thức. Trường hợp chưa đạt năng lực tiếng Anh đầu vào, thí sinh sẽ học chương trình dự bị tiếng Anh. b. Nguyên tắc xét tuyển Nếu một NVXT của thí sinh đăng ký vào Trường có chọn nhiều căn cứ xét tuyển và tương ứng có nhiều phương thức xét tuyển (Phương thức 1, 2, 3, 4) thì Trường sẽ thực hiện việc xét tuyển theo thứ tự ưu tiên lần lượt của các phương thức như sau: Phương thức 1, Phương thức 3, Phương thức 4, Phương thức 2. Thí sinh có nhiều NVXT đủ điều kiện trúng tuyển thì chỉ được công nhận trúng tuyển và gọi nhập học theo nguyện vọng cao nhất.' - 'Thí sinh có thể dự thi cả 2 đợt thi năng khiếu để dùng điểm cao nhất của 2 đợt thi xét tuyển (đợt thi 1 dự kiến ngày 15-17/08/2021; đợt thi 2 dự kiến ngày 17-20/8/2021). TDTU không nhận điểm thi năng khiếu của các Trường khác chuyển sang. Xem chi tiết thông báo thi năng khiếu tại https://admission.tdtu.edu.vn + Thí sinh thuộc đối tượng 2- đợt 2 xét tuyển vào chương trình đại học bằng tiếng Anh phải có Chứng chỉ tiếng Anh quốc tế tương đương IELTS 5.0 trở lên (còn thời hạn trong vòng 2 năm tính đến ngày 01/10/2021); Thí sinh không có chứng chỉ tiếng Anh quốc tế tương đương IELTS 5.0 trở lên còn thời hạn theo quy định của TDTU phải đăng ký dự thi Năng lực tiếng Anh do TDTU tổ chức (trừ ngành Ngôn ngữ Anh chỉ nhận chứng chỉ tiếng Anh quốc tế theo quy định) tại website: https://thinangkhieu.tdtu.edu.vn.' - source_sentence: Những đối tượng nào có thể đăng ký xét tuyển vào Đại học Sư phạm Kỹ thuật TP.HCM và cần đáp ứng các điều kiện gì? sentences: - 'Hồ Chí Minh được thành lập theo Quyết định số 1485/GD-ĐT. Cơ sở vật chất Địa chỉ: Số 15, Đường D5, Phường 25, Quận Bình Thạnh, TP. Hồ Chí Minh. Ban đầu, do chưa có cơ sở vật chất riêng, Cơ sở II phải thuê cơ sở của Trường Cao đẳng Kinh tế Đối ngoại. Qua thời gian, trường đã xây dựng được cơ sở mới đáp ứng nhu cầu giảng dạy và học tập. Diện tích khuôn viên: Gần 5.000 m². Khu vực giảng dạy chính: Sảnh A và sảnh B, đồng thời là nơi đặt trụ sở Ban Giám hiệu và các khoa, phòng ban quản lý. Trang thiết bị: Nhiều phòng học và phòng chức năng được trang bị hiện đại. Ngoài ra, trong khuôn viên còn có phân viện VJCC cơ sở TP. Hồ Chí Minh, được hỗ trợ xây dựng bởi nguồn vốn từ Chính phủ Nhật Bản, tương tự như phân viện tại Hà Nội. Cơ cấu tổ chức và đội ngũ cán bộ, giáo viên Trong thời gian đầu mới thành lập, Cơ sở II chỉ có 02 cán bộ, và hầu hết các hoạt động được chỉ đạo trực tiếp từ Cơ sở I tại Hà Nội. Tuy nhiên, với quy mô đào tạo ngày càng tăng, Cơ sở II đã nhanh chóng củng cố cơ cấu tổ chức và đội ngũ cán bộ, giáo viên. Hiện tại, Cơ sở II có hơn 100 cán bộ, giáo viên cơ hữu, công tác tại 11 Ban và 05 Bộ môn. Các Ban Ban Tổ chức - Hành chính Ban Kế hoạch - Tài chính Ban Quản lý đào tạo Ban Công tác chính trị & Sinh viên Ban Đào tạo quốc tế Ban Quản trị thiết bị Ban Quản lý Khoa học & Hợp tác quốc tế Ban Khảo thí & Đảm bảo chất lượng Ban Truyền thông & Quan hệ đối ngoại Ban Thư viện Ban Công tác Đảng & Đoàn thể Các Bộ môn Bộ môn Khoa học cơ bản Bộ môn Kinh doanh & Thương mại quốc tế Bộ môn Ngoại ngữ Bộ môn Kinh tế - Luật Bộ môn Quản trị kinh doanh & Tài chính - Kế toán' - 'THÔNG TIN TUYỂN SINH Đại học Sư phạm Kỹ thuật TP.HCM . Thông tin chung 1. Thời gian xét tuyển Theo lịch tuyển sinh chung của Bộ GD&ĐT và kế hoạch tuyển sinh của trường công bố cụ thể trên website. 2. Đối tượng tuyển sinh Thí sinh đã tốt nghiệp THPT. 3. Phạm vi tuyển sinh Tuyển sinh trong cả nước. 4. Phương thức tuyển sinh 4.1. Phương thức xét tuyển Phương thức 1: Xét tuyển học bạ THPT. Phương thức 2: Xét tuyển thí sinh theo kết quả điểm thi tốt nghiệp THPT năm 2024 theo các tổ hợp môn xét tuyển từng ngành học. Phương thức 3: Xét tuyển thẳng, ưu tiên xét tuyển thẳng. 4.2. Ngưỡng đảm bảo chất lượng đầu vào, điều kiện nhận ĐKXT Phương thức xét tuyển bằng điểm thi THPT 2024: thí sinh phải tốt nghiệp THPT và thỏa điều kiện ngưỡng đảm bảo chất lượng đầu vào của Trường. Thông báo ngưỡng đảm bảo sau khi thí sinh có kết quả thi THPT. Phương thức xét tuyển bằng học bạ THPT tốt nghiệp (tốt nghiệp THPT 2024): thí sinh tốt nghiệp THPT và điểm trung bình học bạ mỗi môn học theo tổ hợp đăng ký xét tuyển từ 5,0 trở lên. Hồi đồng thi tuyển uy quyền cho những thành viên thường trực Hội đồng tuyển sinh quyết định điểm trúng tuyển các phương thức xét. Điềm chuẩn ngành Sư phạm tiếng Anh theo các phương thức xét tuyển sớm sẽ được điều chỉnh khi có chỉ tiêu được giao của Bộ GD&ĐT. 4.3.' - '4. CÁC NGÀNH ĐÀO TẠO a. ĐẠI HỌC Cử nhân Sư phạm Tin học Cử nhân Công nghệ Thông tin b. SAU ĐẠI HỌC Thạc sĩ Khoa học máy tính vii. Khoa Vật lý 1. CHẤT LƯỢNG ĐÀO TẠO ĐÀO TẠO CỬ NHÂN (4 NĂM) CN Sư phạm Vật lý, CN Vật lý học CN Sư phạm Công nghệ TUYỂN SINH: 100 - 150 SV ĐÀO TẠO CAO HỌC (2 NĂM) Bắt đầu đào tạo Thạc sĩ từ 1999 ThS Lý luận và phương pháp dạy học bộ môn Vật lý ThS Vật Lý Nguyên tử và hạt nhân TUYỂN SINH: 15 - 25 HV/năm 2. CHẤT LƯỢNG GIẢNG VIÊN ĐỘI NGŨ GIẢNG VIÊN: 35 Giảng viên: 35 Giáo sư : 1 Phó Giáo sư Tiến sĩ: 4 Tiến sĩ: 17 Thạc sĩ: 10 Cử nhân: 3 3. MỤC TIÊU ĐÀO TẠO Đào tạo cử nhân Vật lý học, có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các tri thức cơ bản của Vật lý học theo định hướng chuyên ngành. Sau khi tốt nghiệp, người học có đủ năng lực để làm việc trong môi trường nghiên cứu, sản xuất kinh doanh có sử dụng kiến thức Vật lý học cũng như có thể tiếp tục theo các bậc học cao hơn. Đào tạo giáo viên có trình độ cử nhân Sư phạm Vật lý (hệ chính quy, chính quy địa phương, hệ chuyên tu, tại chức). Sau khi tốt nghiệp, người học có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các tri thức cơ bản của Vật lý học, lý luận và phương pháp giảng dạy Vật lý ở trường trung học. Đào tạo giáo viên dạy Công nghệ bậc Trung học cơ sở và Trung học phổ thông. Sau khi tốt nghiệp, người học có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các tri thức khoa học, công nghệ nền tảng vào trong dạy học môn Công nghệ ở trường phổ thông. Sau khi tốt nghiệp, người học có đủ năng lực để làm việc trong môi trường nghiên cứu, sản xuất kinh doanh có sử dụng kiến thức khoa học, công nghệ cũng như có thể tiếp tục theo các bậc học cao hơn.' - source_sentence: Quá trình hình thành và phát triển của Đại học Kinh tế Thành phố Hồ Chí Minh diễn ra như thế nào? sentences: - '1. Điểm trúng tuyển Phương thức xét tuyển theo kết quả học tập THPT – Đợt 2 (PT1-Đ2), ưu tiên xét tuyển theo quy định của TDTU dành cho học sinh trường chuyên trên cả nước và một số trường trọng điểm ở TP.HCM – Đợt 2 (PT3-ĐT1-Đ2); ưu tiên xét tuyển theo quy định của TDTU dành cho học sinh có chứng chỉ tiếng Anh quốc tế tương đương IELTS 5.0 trở lên – Đợt 2 (PT3-ĐT2-Đ2): Điểm xét tuyển được thực hiện theo đúng đề án tuyển sinh đại học năm 2022, thang điểm 40 và được làm tròn đến 02 chữ số thập phân (đã bao gồm điểm ưu tiên khu vực, đối tượng, hệ số trường THPT, điểm ưu tiên thành tích học sinh giỏi). Phương thức xét tuyển theo điểm thi THPT năm 2022 (PT2): Điểm xét tuyển được thực hiện theo đúng đề án tuyển sinh đại học năm 2022, là tổng điểm của 3 môn theo tổ hợp (có nhân hệ số môn theo tổ hợp, ngành xét tuyển theo thang điểm 40), cộng với điểm ưu tiên khu vực, đối tượng theo thang điểm 40 (nếu có), được làm tròn đến 2 chữ số thập phân theo quy định của Bộ GD&ĐT. Phương thức xét tuyển theo điểm thi đánh giá năng lực của Đại học Quốc gia TP.HCM năm 2022 (PT5): Điểm xét tuyển được thực hiện theo đúng đề án tuyển sinh đại học năm 2022 theo thang điểm 1200 (đã bao gồm điểm ưu tiên khu vực, đối tượng theo thang điểm 1200) Phương thức xét tuyển theo kết quả học tập THPT -Đợt 1 (PT1-Đ1) và ưu tiên xét tuyển theo quy định của TDTU đợt 1 (PT3-Đ1), điểm trúng tuyển theo thông báo Kết quả sơ tuyển PT1, PT3-ĐT1 các ngành trình độ đại học chính quy 2022-Đợt 1 ngày 30/6/2022 của HĐTS Trường. Bảng điểm trúng tuyển theo các phương thức như sau: Here''s the updated table based on your additional data. I''ve kept the structure consistent, with the text "HHMT≥6.0" moved to the "Điểm TT PT5" column where relevant: STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2 Điểm TT PT5 Chương trình tiêu chuẩn 1 7210402 Thiết kế công nghiệp 26.5 23 30 650 HHMT≥6.0 2 7210403 Thiết kế đồ họa 29.5 27 32 700 HHMT≥6.0 3 7210404 Thiết kế thời trang 26.5 24 30 650 HHMT≥6.0 4 7220201 Ngôn ngữ Anh 37 34 36 800 5 7220204 Ngôn ngữ Trung Quốc 37 33 35 800 6 7310301 Xã hội học 31.5 28.5 31 650 7 7310630 Việt Nam học (Chuyên ngành: Du lịch và lữ hành) 34 31.8 33 700 8 7310630Q Việt Nam học (Chuyên ngành: Du lịch và quản lý du lịch) 34 31.8 33 700 9 7340101 Quản trị kinh doanh (Chuyên ngành: Quản trị nguồn nhân lực) 37 33.6 36 800 10 7340101N Quản trị kinh doanh (Chuyên ngành: Quản trị nhà hàng - khách sạn) 35.75 30.5 35 800 11 7340115 Marketing 37.75 34.8 37 870 12 7340120 Kinh doanh quốc tế 37.5 34.5 37 870 13 7340201 Tài chính - Ngân hàng 36.75 33.6 35.25 750 14 7340301 Kế toán 36 33.3 34.25 720 15 7340408 Quan hệ lao động (Chuyên ngành Quản lý Quan hệ lao động, Chuyên ngành Hành vi tổ chức) 28 27 31 700 16 7380101 Luật 36.5 33.5 35.5 720 17 7420201 Công nghệ sinh học 33.5 26.5 32 680 18 7440301 Khoa học môi trường 26 22 31 650 19 7460112 Toán ứng dụng 31.5 31.1 31 680 20 7460201 Thống kê 28 29.1 31 680 21 7480101 Khoa học máy tính 38 35 35 850 22 7480102 Mạng máy tính và truyền thông dữ liệu 36.25 34.5 32.5 800 23 7480103 Kỹ thuật phần mềm 38 35.4 35.5 850 24 7510406 Công nghệ kỹ thuật môi trường (Chuyên ngành Cấp thoát nước và môi trường nước) 26 22 30 650 25 7520114 Kỹ thuật cơ điện tử 33 28.5 32 680 26 7520201 Kỹ thuật điện 31 27.5 32 650 27 7520207 Kỹ thuật điện tử - viễn thông 31 29.5 32 650 28 7520216 Kỹ thuật điều khiển và tự động hóa 33 31.7 32 680 29 7520301 Kỹ thuật hóa học 34 28.5 32 680 30 7580101 Kiến trúc 28 26 32 680 HHMT≥6.0 31 7580105 Quy hoạch vùng và đô thị 27 23 30 650 32 7580108 Thiết kế nội thất 27 24 32 650 HHMT≥6.0 33 7580201 Kỹ thuật xây dựng 29 25 32 650 34 7580205 Kỹ thuật xây dựng công trình giao thông 27 23 30 650 35 7720201 Dược học 36 HSG lớp 12 33.2 HSG lớp 12 800 HSG lớp 12 36 7760101 Công tác xã hội 27 25.3 30 650 37 7810301 Quản lý thể dục thể thao (Chuyên ngành kinh doanh thể thao và tổ chức sự kiện) 31.5 27 30 650 38 7810302 Golf 27 23 30 650 39 7850201 Bảo hộ lao động 27 23 30 650 CHƯƠNG TRÌNH CHẤT LƯỢNG CAO 1 F7210403 Thiết kế đồ họa - Chương trình Chất lượng cao 26.5 23 30 650 HHMT≥6.0 2 F7220201 Ngôn ngữ Anh – Chương trình Chất lượng cao 34 29.9 32 700 3 F7310630Q Việt Nam học (Chuyên ngành Du lịch và Quản lý du lịch) - Chương trình Chất lượng cao 27 27 32 650 4 F7340101 Quản trị kinh doanh (Chuyên ngành: Quản trị nguồn nhân lực) - Chương trình Chất lượng cao 35.5 32.7 33 700 5 F7340101N Quản trị kinh doanh (Chuyên ngành: Quản trị nhà hàng - khách sạn) - Chương trình Chất lượng cao 33 29.1 32 700 6 F7340115 Marketing - Chương trình Chất lượng cao 36 33.5 35 750 7 F7340120 Kinh doanh quốc tế - Chương trình Chất lượng cao 36.5 32.8 36 750 8 F7340201 Tài chính - Ngân hàng - Chương trình Chất lượng cao 33 30.1 32 700 9 F7340301 Kế toán - Chương trình Chất lượng cao 31 29.2 32 650 10 F7380101 Luật - Chương trình Chất lượng cao 32 32.1 32 650 11 F7420201 Công nghệ sinh học - Chương trình Chất lượng cao 27 22 30 650 12 F7480101 Khoa học máy tính - Chương trình Chất lượng cao 36.25 34.5 32 800 13 F7480103 Kỹ thuật phần mềm - Chương trình Chất lượng cao 36.25 34.5 32 800 14 F7520201 Kỹ thuật điện - Chương trình Chất lượng cao 27 22 30 650 15 F7520207 Kỹ thuật điện tử - viễn thông - Chương trình Chất lượng cao 27 22 30 650 16 F7520216 Kỹ thuật điều khiển và tự động hóa - Chương trình Chất lượng cao 27 25 30 650 17 F7580201 Kỹ thuật xây dựng - Chương trình Chất lượng cao 27 22 30 650 CHƯƠNG TRÌNH ĐẠI HỌC BẰNG TIẾNG ANH Yêu cầu về tiếng Anh đầu vào: Thí sinh nước ngoài ở các nước có ngôn ngữ chính là tiếng Anh không yêu cầu Chứng chỉ tiếng Anh đầu vào quốc tế; Thí sinh Việt Nam và thí sinh ở các nước không có ngôn ngữ chính là tiếng Anh: phải có Chứng chỉ IELTS 5.0 trở lên hoặc tương đương (có giá trị từ ngày 01/10/2020 và còn giá trị đến ngày 01/10/2022); hoặc phải dự thi đánh giá năng lực tiếng Anh bằng Hệ thống đánh giá năng lực tiếng Anh theo chuẩn quốc tế của TDTU để được xác nhận đủ điều kiện tiếng Anh theo học chương trình (trừ Ngành ngôn ngữ Anh phải có chứng chỉ tiếng Anh quốc tế tương đương IELTS 5.0 trở lên theo quy định). Trường hợp số lượng học viên nhập học đủ điều kiện học chính thức ít hơn sĩ số tối thiểu để mở lớp, người học được tư vấn để bảo lưu kết quả tuyển sinh, hoặc chuyển qua các ngành/chương trình khác (nếu đáp ứng được tiêu chí tuyển đầu vào của ngành/chương trình đó). Chương trình đại học bằng tiếng Anh: STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2 Điểm TT PT5 1 FA7220201 Ngôn ngữ Anh – Chương trình đại học bằng tiếng Anh 32 25 30 34.5 700 2 FA7310630Q Việt Nam học (Chuyên ngành Du lịch và Quản lý du lịch) - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 3 FA7340101N Quản trị kinh doanh (Chuyên ngành: Quản trị nhà hàng - khách sạn) - Chương trình đại học bằng tiếng Anh 30 27 30 30 650 4 FA7340115 Marketing - Chương trình đại học bằng tiếng Anh 34 27 32 36 700 5 FA7340120 Kinh doanh quốc tế - Chương trình đại học bằng tiếng Anh 34 27 32 36 700 6 FA7340201 Tài chính ngân hàng - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 7 FA7340301 Kế toán (Chuyên ngành: Kế toán quốc tế) - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 8 FA7420201 Công nghệ sinh học - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 9 FA7480101 Khoa học máy tính - Chương trình đại học bằng tiếng Anh 30 24 30 30 650 10 FA7480103 Kỹ thuật phần mềm - Chương trình đại học bằng tiếng Anh 30 24 30 30 650 11 FA7520216 Kỹ thuật điều khiển và tự động hóa - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 12 FA7580201 Kỹ thuật xây dựng - Chương trình đại học bằng tiếng Anh 28 24 28 28 650 Chương trình học tại Phân hiệu Khánh Hòa: STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2 Điểm TT PT5 1 N7220201 Ngôn ngữ Anh - Chương trình học Phân hiệu Khánh Hòa 28 24 31 650 2 N7310630 Việt Nam học (Chuyên ngành: Du lịch và lữ hành) - Chương trình học Phân hiệu Khánh Hòa 27 22 30 650 3 N7340101N Quản trị kinh doanh, Chuyên ngành: Quản trị nhà hàng - khách sạn - Chương trình học Phân hiệu Khánh Hòa 29 24 31 650 4 N7340115 Marketing - Chương trình học Phân hiệu Khánh Hòa 29 24 31 650 5 N7340301 Kế toán - Chương trình học Phân hiệu Khánh Hòa 27 22 30 650 6 N7380101 Luật - Chương trình học Phân hiệu Khánh Hòa 27 22 30 650 7 N7480103 Kỹ thuật phần mềm - Chương trình học Phân hiệu Khánh Hòa 27 22 31 650 CHƯƠNG TRÌNH LIÊN KẾT QUỐC TẾ Yêu cầu về tiếng Anh đầu vào: Thí sinh phải đạt trình độ tiếng Anh đầu vào từ B2 trở lên hoặc tương đương để được công nhận trúng tuyển vào chương trình chính thức.Thí sinh có thể nộp chứng chỉ IELTS 5.5 hoặc các chứng chỉ quốc tế tương đương để xét tiếng Anh đầu vào; hoặc phải dự thi đánh giá năng lực tiếng Anh đầu khóa bằng Hệ thống đánh giá năng lực tiếng Anh theo chuẩn quốc tế của TDTU để được xác nhận đủ điều kiện tiếng Anh theo học chương trình. Ngoại lệ: Nếu tiếng Anh chưa đạt chuẩn B2, nhưng người học vẫn muốn học chương trình liên kết đào tạo quốc tế, thì được xét vào chương trình dự bị tiếng Anh (liên kết quốc tế) và phải tham gia học bổ túc tiếng Anh tại TDTU cho đến khi đạt trình độ tương đương chuẩn nói trên để được “quyết định nhập học và công nhận là sinh viên”. Thời gian học tiếng Anh tối đa là 2 năm và tùy năng lực đầu vào qua kết quả đánh giá đầu vào xếp lớp của TDTU. Sau thời gian học chương trình dự bị tiếng Anh, nếu vẫn chưa đạt chuẩn tiếng Anh trình độ B2 hoặc tương đương; người học phải thôi học hoặc có thể xin chuyển sang các chương trình khác (nếu vẫn bảo đảm được các tiêu chí tuyển sinh đầu vào tương ứng của các ngành/chương trình này theo đúng năm tuyển sinh ). Trường hợp số lượng học viên nhập học đủ điều kiện học chính thức ít hơn sĩ số tối thiểu để mở lớp, người học được tư vấn để bảo lưu kết quả tuyển sinh, hoặc chuyển qua các ngành/chương trình khác (nếu đáp ứng được tiêu chí tuyển đầu vào của ngành/chương trình đó). STT Mã ngành Tên ngành Điểm TT PT1-Đ2 Điểm TT PT2 Điểm TT PT3-ĐT1-Đ2 Điểm TT PT3-ĐT2-Đ2 Điểm TT PT5 1 K7340101 Quản trị kinh doanh (song bằng, 2+2) - Chương trình liên kết Đại học Kinh tế Praha (Cộng hòa Séc) 28 24 28 28 650 2 K7340101N Quản trị nhà hàng khách sạn (song bằng, 2.5+1.5) - Chương trình liên kết Đại học Taylor''s (Malaysia) 28 24 28 28 650 3 K7340120 Quản trị kinh doanh quốc tế (đơn bằng, 3+1) - Chương trình liên kết Đại học Khoa học và công nghệ Lunghwa (Đài Loan) 28 24 28 28 650 4 K7340201 Tài chính (song bằng, 2+2) - Chương trình liên kết Đại học Feng Chia (Đài Loan) 28 24 28 28 650 5 K7340201S Tài chính (đơn bằng, 3+1) - Chương trình liên kết Đại học Khoa học và công nghệ Lunghwa (Đài Loan) 28 24 28 28 650 6 K7340201X Tài chính và kiểm soát (song bằng, 3+1) - Chương trình liên kết Đại học Khoa học ứng dụng Saxion (Hà Lan) 28 24 28 28 650 7 K7340301 Kế toán (song bằng, 3+1) - Chương trình liên kết Đại học West of England, Bristol (Anh) 28 24 28 28 650 8 K7480101 Khoa học máy tính & Công nghệ tin học (đơn bằng, 2+2) - Chương trình liên kết Đại học Khoa học và công nghệ Lunghwa (Đài Loan) 28 24 28 28 650 9 K7480101L Công nghệ thông tin (song bằng, 2+2) - Chương trình liên kết Đại học La Trobe (Úc) 28 24 28 28 650 10 K7520201 Kỹ thuật điện – điện tử (song bằng, 2.5+1.5) - Chương trình liên kết Đại học Khoa học ứng dụng Saxion (Hà Lan) 28 24 28 28 650 11 K7580201 Kỹ thuật xây dựng (song bằng, 2+2) - Chương trình liên kết Đại học La Trobe (Úc) 28 24 28 28 650 Đính kèm phụ lục điểm trúng tuyển chi tiết theo từng phương thức Phụ lục điểm trúng tuyển chi tiết phương thức 1-đợt 2 (tại đây) Phụ lục điểm trúng tuyển chi tiết phương thức 2 (tại đây) Phụ lục điểm trúng tuyển chi tiết phương thức 3-đợt 2 (tại đây) Thí sinh tra cứu kết quả trúng tuyển từ 17h ngày 17/9/2022 tại website https://tracuuxettuyen.tdtu.edu.vn Lưu ý: Thí sinh đủ điểm trúng tuyển của TDTU công bố nhưng không có trong danh sách trúng tuyển chính thức có thể do thí sinh đã đăng ký không chính xác nguyện vọng trên hệ thống Bộ GD&ĐT hoặc đã trúng tuyển ở nguyện vọng khác có thứ tự ưu tiên cao hơn.' - 'Đại học Kinh tế Thành phố Hồ Chí Minh (UEH) Đại học Kinh tế Thành phố Hồ Chí Minh (tiếng Anh: University of Economics Ho Chi Minh City – UEH), còn được gọi là Đại học UEH, là một đại học công lập đa ngành trực thuộc Bộ Giáo dục và Đào tạo. UEH nằm trong nhóm các trường đại học trọng điểm quốc gia, dẫn đầu trong đào tạo khối ngành kinh tế tại Việt Nam. UEH không chỉ là một trụ cột quan trọng trong hệ thống giáo dục bậc cao mà còn là trung tâm nghiên cứu các chính sách kinh tế và quản lý cho chính phủ cùng các doanh nghiệp lớn. UEH đã đào tạo nhiều lãnh đạo cấp cao cho các tập đoàn đa quốc gia nổi tiếng trong và ngoài nước. Lịch sử hình thành và phát triển 1976: Thành lập với tên gọi Trường Đại học Kinh tế trực thuộc Bộ Đại học và Trung học chuyên nghiệp. 1996: Sáp nhập với hai đơn vị khác, trở thành Trường Đại học Kinh tế trực thuộc Đại học Quốc gia Thành phố Hồ Chí Minh. 2000: Tách ra khỏi Đại học Quốc gia Thành phố Hồ Chí Minh, trở thành Trường Đại học Kinh tế Thành phố Hồ Chí Minh trực thuộc Bộ Giáo dục và Đào tạo. 2021: Tái cấu trúc, thành lập các trường thành viên và định hướng phát triển thành đại học đa ngành, đa lĩnh vực. 2023: Chính thức chuyển đổi thành Đại học Kinh tế Thành phố Hồ Chí Minh. Cơ sở vật chất và hoạt động Hiện nay, UEH sở hữu: - 10 cơ sở giảng dạy tại Thành phố Hồ Chí Minh.' - '4. CÁC NGÀNH ĐÀO TẠO a. ĐẠI HỌC Cử nhân Sư phạm Toán học (Hệ Chính quy, Hệ Vừa làm vừa học) b.SAU ĐẠI HỌC Thạc sĩ Toán giải tích Thạc sĩ Đại số và Lý thuyết số Thạc sĩ Hình học và Tôpô Thạc sĩ Lý luận và Phương pháp dạy học bộ môn Toán Tiến sĩ Toán Giải tích Tiến sĩ Hình học và Tôpô Tiến sĩ Lý luận và Phương pháp dạy học bộ môn Toán c. BỒI DƯỠNG Chuyên đề bồi dưỡng cho giáo viên tiểu học, trung học cơ sở và trung học phổ thông về phương pháp, kĩ thuật dạy học, nội dung dạy học, kiểm tra, đánh giá, ứng dụng công nghệ thông tin trong dạy học,… vi. Khoa Công nghệ Thông tin 1. CHẤT LƯỢNG ĐÀO TẠO ĐÀO TẠO CỬ NHÂN (4 NĂM) Sư phạm Tin học: 90 – 100 SV/năm Công nghệ Thông tin: 180 – 200 SV/năm ĐÀO TẠO CAO HỌC (2 NĂM) Thạc sĩ Khoa học máy tính: 15-35 HV/ năm 2. CHẤT LƯỢNG GIẢNG VIÊN ĐỘI NGŨ GIẢNG VIÊN: 24 Tiến sĩ: 9 Thạc sĩ: 15 3. MỤC TIÊU ĐÀO TẠO Đào tạo giáo viên dạy Tin học bậc phổ thông có trình độ cử nhân Sư phạm Tin học, có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các tri thức cơ bản của Tin học; Lý luận và phương pháp giảng dạy Tin học ở trường trung học, tiểu học. Sau khi tốt nghiệp, người học có đủ năng lực để giảng dạy Tin học tại các trường trung học, tiểu học và một số cơ sở giáo dục tương đương. Đào tạo cử nhân Công nghệ thông tin, có phẩm chất chính trị, đạo đức và sức khỏe tốt, hiểu và vận dụng các tri thức cơ bản về khoa học máy tính. Sau khi tốt nghiệp, người học có đủ năng lực để làm việc trong môi trường các cơ sở sản xuất, các viện hoặc trung tâm nghiên cứu trong lĩnh vực Công nghệ thông tin cũng như có thể tiếp tục theo các bậc học cao hơn.' - source_sentence: Xin hãy liệt kê các trung tâm của Trường Đại học Sư phạm Kỹ thuật TP. Hồ Chí Minh. sentences: - 'Nếu có thắc mắc thí sinh vui lòng liên hệ số điện thoại hỗ trợ tuyển sinh: 19002024' - 'Thực hiện hướng dẫn của Bộ Giáo dục và Đào tạo tại Công văn số 1919/BGDĐT-GDĐH ngày 28 tháng 4 năm 2023, phương thức xét tuyển kết quả điểm thi tốt nghiệp Trung học phổ thông vẫn được giữ nguyên như năm 2022. Tổ hợp môn xét tuyển: B00 (Toán – Hóa – Sinh) chung cho tất cả các ngành. năm 2022, Trường Đại học Y khoa Phạm Ngọc Thạch tuyển được 1.367 chỉ tiêu (đạt 104,4% so với chỉ tiêu đề ra). chỉ tiêu tuyển sinh đại học chính quy của Trường Đại học Y khoa Phạm Ngọc Thạch năm 2023. 1. Y khoa: 660 2. Dược học: 90 3. Điều dưỡng: 250 4. Dinh dưỡng: 60 5. Răng Hàm Mặt: 90 6. Kỹ thuật xét nghiệm y học: 50 7. Kỹ thuật hình ảnh y học: 40 8. Kỹ thuật phục hồi chức năng: 30 9. Khúc xạ nhãn khoa: 40 10. Y tế công cộng: 56 Ghi chú: chỉ tiêu được chia cho các thí sinh có hộ khẩu ở TP HCM và ngoài TP HCM với tỉ lệ 50% Điểm chuẩn của trường Đại học Y khoa Phạm Ngọc Thạch 2023: Y khoa, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,90, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 26.31 Dược học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,28, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 25,25 Điều dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,40, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,40 Dinh dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,25, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,80 Răng - Hàm - Mặt, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 26,00, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 26,28 Kỹ thuật Xét nghiệm Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 24,54, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 24,47 Kỹ thuật Hình ảnh Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,45, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,61 Khúc xạ nhãn khoa, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,75, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,75 Y tế công cộng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 18,85, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 18,35 Kỹ thuật Phục hồi chức năng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,15, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,09' - 'Phòng Đào tạo 2. Phòng Đào tạo không chính quy 3. Phòng Tuyển sinh và Công tác Sinh viên 4. Phòng Truyền thông 5. Phòng Khoa học Công nghệ - Quan hệ Quốc tế 6. Phòng Quan hệ Doanh nghiệp 7. Phòng Thanh tra - Giáo dục 8. Phòng Đảm bảo Chất lượng 9. Phòng Tổ chức - Hành chính 10. Phòng Kế hoạch - Tài chính 11. Phòng Quản trị Cơ sở Vật chất 12. Phòng Thiết bị - Vật tư 13. Ban quản lý KTX 14. Trạm Y tế 15. Bộ phận Quản lý Hồ sơ Dự án C. Danh sách các trung tâm của Trường Đại học Sư phạm Kỹ thuật Thành phố Hồ Chí Minh: 1. Ngoại ngữ 2. Tin học 3. Thư viện 4. Hợp tác Đào tạo Quốc tế 5. Việt – Đức 6. Dịch vụ Sinh viên 7. Thông tin – Máy tính 8. Dạy học số 9. Kỹ thuật Tổng hợp 10. Chế tạo và Thiết kế Thiết bị Công nghiệp 11. Đào tạo và hướng nghiệp quốc tế Việt Nhật 12. Đào tạo ngắn hạn 13. Giáo dục Thể chất - Quốc phòng 14. Đào tạo Bồi dưỡng giáo viên phổ thông, giáo dục nghề nghiệp miền Trung - Tây Nguyên 15. Nghiên cứu và Ứng dụng Kỹ thuật Xây dựng 16. Bồi dưỡng và Đánh giá kỹ năng nghề Quốc gia 17. Phát triển ngôn ngữ 18. Nghiên cứu và Chuyển giao Công nghệ 19. Công nghệ phần mềm 20. Hàn ngữ học Dong A 21. Sáng tạo và Khởi nghiệp 22. Trung tâm hướng nghiệp và đào tạo Việt Nhật D. Các ngành đào tạo trình độ đại học Đi cùng với sự vận động và phát triển của nền kinh tế đất nước theo hướng công nghiệp hóa, hiện đại hóa, Trường Đại học Sư phạm Kỹ thuật Tp. Hồ Chí Minh đã tiếp cận thực tế để mở rộng đào tạo gần 30 ngành đào tạo trình độ đại học i.' pipeline_tag: sentence-similarity library_name: sentence-transformers metrics: - cosine_accuracy@1 - cosine_accuracy@3 - cosine_accuracy@5 - cosine_accuracy@10 - cosine_precision@1 - cosine_precision@3 - cosine_precision@5 - cosine_precision@10 - cosine_recall@1 - cosine_recall@3 - cosine_recall@5 - cosine_recall@10 - cosine_ndcg@10 - cosine_mrr@10 - cosine_map@100 model-index: - name: SentenceTransformer based on dangvantuan/vietnamese-document-embedding results: - task: type: information-retrieval name: Information Retrieval dataset: name: dim 768 type: dim_768 metrics: - type: cosine_accuracy@1 value: 0.6759510869565217 name: Cosine Accuracy@1 - type: cosine_accuracy@3 value: 0.9001358695652174 name: Cosine Accuracy@3 - type: cosine_accuracy@5 value: 0.9483695652173914 name: Cosine Accuracy@5 - type: cosine_accuracy@10 value: 0.985733695652174 name: Cosine Accuracy@10 - type: cosine_precision@1 value: 0.6759510869565217 name: Cosine Precision@1 - type: cosine_precision@3 value: 0.30004528985507245 name: Cosine Precision@3 - type: cosine_precision@5 value: 0.18967391304347825 name: Cosine Precision@5 - type: cosine_precision@10 value: 0.09857336956521738 name: Cosine Precision@10 - type: cosine_recall@1 value: 0.6759510869565217 name: Cosine Recall@1 - type: cosine_recall@3 value: 0.9001358695652174 name: Cosine Recall@3 - type: cosine_recall@5 value: 0.9483695652173914 name: Cosine Recall@5 - type: cosine_recall@10 value: 0.985733695652174 name: Cosine Recall@10 - type: cosine_ndcg@10 value: 0.8420877438453158 name: Cosine Ndcg@10 - type: cosine_mrr@10 value: 0.794684912008282 name: Cosine Mrr@10 - type: cosine_map@100 value: 0.7957360881986503 name: Cosine Map@100 - task: type: information-retrieval name: Information Retrieval dataset: name: dim 512 type: dim_512 metrics: - type: cosine_accuracy@1 value: 0.6827445652173914 name: Cosine Accuracy@1 - type: cosine_accuracy@3 value: 0.9137228260869565 name: Cosine Accuracy@3 - type: cosine_accuracy@5 value: 0.9565217391304348 name: Cosine Accuracy@5 - type: cosine_accuracy@10 value: 0.9898097826086957 name: Cosine Accuracy@10 - type: cosine_precision@1 value: 0.6827445652173914 name: Cosine Precision@1 - type: cosine_precision@3 value: 0.30457427536231885 name: Cosine Precision@3 - type: cosine_precision@5 value: 0.19130434782608693 name: Cosine Precision@5 - type: cosine_precision@10 value: 0.09898097826086956 name: Cosine Precision@10 - type: cosine_recall@1 value: 0.6827445652173914 name: Cosine Recall@1 - type: cosine_recall@3 value: 0.9137228260869565 name: Cosine Recall@3 - type: cosine_recall@5 value: 0.9565217391304348 name: Cosine Recall@5 - type: cosine_recall@10 value: 0.9898097826086957 name: Cosine Recall@10 - type: cosine_ndcg@10 value: 0.848423953670157 name: Cosine Ndcg@10 - type: cosine_mrr@10 value: 0.8016792292098005 name: Cosine Mrr@10 - type: cosine_map@100 value: 0.8024031231126366 name: Cosine Map@100 - task: type: information-retrieval name: Information Retrieval dataset: name: dim 256 type: dim_256 metrics: - type: cosine_accuracy@1 value: 0.6813858695652174 name: Cosine Accuracy@1 - type: cosine_accuracy@3 value: 0.9157608695652174 name: Cosine Accuracy@3 - type: cosine_accuracy@5 value: 0.9599184782608695 name: Cosine Accuracy@5 - type: cosine_accuracy@10 value: 0.9891304347826086 name: Cosine Accuracy@10 - type: cosine_precision@1 value: 0.6813858695652174 name: Cosine Precision@1 - type: cosine_precision@3 value: 0.3052536231884058 name: Cosine Precision@3 - type: cosine_precision@5 value: 0.19198369565217388 name: Cosine Precision@5 - type: cosine_precision@10 value: 0.09891304347826084 name: Cosine Precision@10 - type: cosine_recall@1 value: 0.6813858695652174 name: Cosine Recall@1 - type: cosine_recall@3 value: 0.9157608695652174 name: Cosine Recall@3 - type: cosine_recall@5 value: 0.9599184782608695 name: Cosine Recall@5 - type: cosine_recall@10 value: 0.9891304347826086 name: Cosine Recall@10 - type: cosine_ndcg@10 value: 0.848428744710359 name: Cosine Ndcg@10 - type: cosine_mrr@10 value: 0.8016997174775718 name: Cosine Mrr@10 - type: cosine_map@100 value: 0.8024753262882551 name: Cosine Map@100 --- # SentenceTransformer based on dangvantuan/vietnamese-document-embedding This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [dangvantuan/vietnamese-document-embedding](https://huggingface.co/dangvantuan/vietnamese-document-embedding). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [dangvantuan/vietnamese-document-embedding](https://huggingface.co/dangvantuan/vietnamese-document-embedding) <!-- at revision 6fa4e2f8ed2d33120b0f4442cc81f8f973c3f56b --> - **Maximum Sequence Length:** 8192 tokens - **Output Dimensionality:** 768 dimensions - **Similarity Function:** Cosine Similarity <!-- - **Training Dataset:** Unknown --> <!-- - **Language:** Unknown --> <!-- - **License:** Unknown --> ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'VietnameseModel'}) (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("HoangVuSnape/vietnamese-document-embedding_pr_v2_ep30_new") # Run inference sentences = [ 'Xin hãy liệt kê các trung tâm của Trường Đại học Sư phạm Kỹ thuật TP. Hồ Chí Minh.', 'Phòng Đào tạo\n\n2. Phòng Đào tạo không chính quy\n\n3. Phòng Tuyển sinh và Công tác Sinh viên\n\n4. Phòng Truyền thông\n\n5. Phòng Khoa học Công nghệ - Quan hệ Quốc tế\n\n6. Phòng Quan hệ Doanh nghiệp\n\n7. Phòng Thanh tra - Giáo dục\n\n8. Phòng Đảm bảo Chất lượng\n\n9. Phòng Tổ chức - Hành chính\n\n10. Phòng Kế hoạch - Tài chính\n\n11. Phòng Quản trị Cơ sở Vật chất\n\n12. Phòng Thiết bị - Vật tư\n\n13. Ban quản lý KTX\n\n14. Trạm Y tế\n\n15. Bộ phận Quản lý Hồ sơ Dự án\n\nC. Danh sách các trung tâm của Trường Đại học Sư phạm Kỹ thuật Thành phố Hồ Chí Minh:\n\n1. Ngoại ngữ\n\n2. Tin học\n\n3. Thư viện\n\n4. Hợp tác Đào tạo Quốc tế\n\n5. Việt – Đức\n\n6. Dịch vụ Sinh viên\n\n7. Thông tin – Máy tính\n\n8. Dạy học số\n\n9. Kỹ thuật Tổng hợp\n\n10. Chế tạo và Thiết kế Thiết bị Công nghiệp\n\n11. Đào tạo và hướng nghiệp quốc tế Việt Nhật\n\n12. Đào tạo ngắn hạn\n\n13. Giáo dục Thể chất - Quốc phòng\n\n14. Đào tạo Bồi dưỡng giáo viên phổ thông, giáo dục nghề nghiệp miền Trung - Tây Nguyên\n\n15. Nghiên cứu và Ứng dụng Kỹ thuật Xây dựng\n\n16. Bồi dưỡng và Đánh giá kỹ năng nghề Quốc gia\n\n17. Phát triển ngôn ngữ\n\n18. Nghiên cứu và Chuyển giao Công nghệ\n\n19. Công nghệ phần mềm\n\n20. Hàn ngữ học Dong A\n\n21. Sáng tạo và Khởi nghiệp\n\n22. Trung tâm hướng nghiệp và đào tạo Việt Nhật\n\nD. Các ngành đào tạo trình độ đại học\n\nĐi cùng với sự vận động và phát triển của nền kinh tế đất nước theo hướng công nghiệp hóa, hiện đại hóa, Trường Đại học Sư phạm Kỹ thuật Tp. Hồ Chí Minh đã tiếp cận thực tế để mở rộng đào tạo gần 30 ngành đào tạo trình độ đại học\n\ni.', 'Thực hiện hướng dẫn của Bộ Giáo dục và Đào tạo tại Công văn số 1919/BGDĐT-GDĐH ngày 28 tháng 4 năm 2023, phương thức xét tuyển kết quả điểm thi tốt nghiệp Trung học phổ thông vẫn được giữ nguyên như năm 2022. Tổ hợp môn xét tuyển: B00 (Toán – Hóa – Sinh) chung cho tất cả các ngành. năm 2022, Trường Đại học Y khoa Phạm Ngọc Thạch tuyển được 1.367 chỉ tiêu (đạt 104,4% so với chỉ tiêu đề ra). chỉ tiêu tuyển sinh đại học chính quy của Trường Đại học Y khoa Phạm Ngọc Thạch năm 2023. 1. Y khoa: 660 2. Dược học: 90 3. Điều dưỡng: 250 4. Dinh dưỡng: 60 5. Răng Hàm Mặt: 90 6. Kỹ thuật xét nghiệm y học: 50 7. Kỹ thuật hình ảnh y học: 40 8. Kỹ thuật phục hồi chức năng: 30 9. Khúc xạ nhãn khoa: 40 10. Y tế công cộng: 56\n\nGhi chú: chỉ tiêu được chia cho các thí sinh có hộ khẩu ở TP HCM và ngoài TP HCM với tỉ lệ 50%\n\nĐiểm chuẩn của trường Đại học Y khoa Phạm Ngọc Thạch 2023: Y khoa, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,90, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 26.31 Dược học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 25,28, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 25,25 Điều dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,40, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,40 Dinh dưỡng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 22,25, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 22,80 Răng - Hàm - Mặt, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 26,00, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 26,28 Kỹ thuật Xét nghiệm Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 24,54, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 24,47 Kỹ thuật Hình ảnh Y học, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,45, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,61 Khúc xạ nhãn khoa, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,75, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,75 Y tế công cộng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 18,85, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 18,35 Kỹ thuật Phục hồi chức năng, Điểm chuẩn thí sinh có hộ khẩu tại TP HCM(TP): 23,15, Điểm chuẩn thí sinh có hộ khẩu ngoài TP HCM(TQ): 23,09', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 768] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities) # tensor([[1.0000, 0.8413, 0.0106], # [0.8413, 1.0000, 0.0259], # [0.0106, 0.0259, 1.0000]]) ``` <!-- ### Direct Usage (Transformers) <details><summary>Click to see the direct usage in Transformers</summary> </details> --> <!-- ### Downstream Usage (Sentence Transformers) You can finetune this model on your own dataset. <details><summary>Click to expand</summary> </details> --> <!-- ### Out-of-Scope Use *List how the model may foreseeably be misused and address what users ought not to do with the model.* --> ## Evaluation ### Metrics #### Information Retrieval * Dataset: `dim_768` * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters: ```json { "truncate_dim": 768 } ``` | Metric | Value | |:--------------------|:-----------| | cosine_accuracy@1 | 0.676 | | cosine_accuracy@3 | 0.9001 | | cosine_accuracy@5 | 0.9484 | | cosine_accuracy@10 | 0.9857 | | cosine_precision@1 | 0.676 | | cosine_precision@3 | 0.3 | | cosine_precision@5 | 0.1897 | | cosine_precision@10 | 0.0986 | | cosine_recall@1 | 0.676 | | cosine_recall@3 | 0.9001 | | cosine_recall@5 | 0.9484 | | cosine_recall@10 | 0.9857 | | **cosine_ndcg@10** | **0.8421** | | cosine_mrr@10 | 0.7947 | | cosine_map@100 | 0.7957 | #### Information Retrieval * Dataset: `dim_512` * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters: ```json { "truncate_dim": 512 } ``` | Metric | Value | |:--------------------|:-----------| | cosine_accuracy@1 | 0.6827 | | cosine_accuracy@3 | 0.9137 | | cosine_accuracy@5 | 0.9565 | | cosine_accuracy@10 | 0.9898 | | cosine_precision@1 | 0.6827 | | cosine_precision@3 | 0.3046 | | cosine_precision@5 | 0.1913 | | cosine_precision@10 | 0.099 | | cosine_recall@1 | 0.6827 | | cosine_recall@3 | 0.9137 | | cosine_recall@5 | 0.9565 | | cosine_recall@10 | 0.9898 | | **cosine_ndcg@10** | **0.8484** | | cosine_mrr@10 | 0.8017 | | cosine_map@100 | 0.8024 | #### Information Retrieval * Dataset: `dim_256` * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters: ```json { "truncate_dim": 256 } ``` | Metric | Value | |:--------------------|:-----------| | cosine_accuracy@1 | 0.6814 | | cosine_accuracy@3 | 0.9158 | | cosine_accuracy@5 | 0.9599 | | cosine_accuracy@10 | 0.9891 | | cosine_precision@1 | 0.6814 | | cosine_precision@3 | 0.3053 | | cosine_precision@5 | 0.192 | | cosine_precision@10 | 0.0989 | | cosine_recall@1 | 0.6814 | | cosine_recall@3 | 0.9158 | | cosine_recall@5 | 0.9599 | | cosine_recall@10 | 0.9891 | | **cosine_ndcg@10** | **0.8484** | | cosine_mrr@10 | 0.8017 | | cosine_map@100 | 0.8025 | <!-- ## Bias, Risks and Limitations *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* --> <!-- ### Recommendations *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* --> ## Training Details ### Training Dataset #### Unnamed Dataset * Size: 1,472 training samples * Columns: <code>anchor</code> and <code>positive</code> * Approximate statistics based on the first 1000 samples: | | anchor | positive | |:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------| | type | string | string | | details | <ul><li>min: 9 tokens</li><li>mean: 25.49 tokens</li><li>max: 62 tokens</li></ul> | <ul><li>min: 14 tokens</li><li>mean: 559.43 tokens</li><li>max: 6602 tokens</li></ul> | * Samples: | anchor | positive | |:-----------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | <code>Ngành Quản lý Tài nguyên và Môi trường trang bị cho sinh viên những kiến thức và kỹ năng gì?</code> | <code>Sau khi tốt nghiệp, người học sẽ:<br><br>Có kiến thức cơ bản về toán học, khoa học tự nhiên, đáp ứng cho việc tiếp thu các kiến thức giáo dục chuyên nghiệp và khả năng học tập ở trình độ cao hơn<br><br>Có các kiến thức kỹ thuật cơ sở ngành và chuyên ngành giúp đủ năng lực phát hiện, giải quyết các vấn đề liên quan đến công nghệ sản xuất, chế tạo và ứng dụng vật liệu vào trong xây dựng, kiểm soát chất lượng nguyên vật liệu và cấu kiện sản phẩm xây dựng, nghiên cứu sản xuất chế tạo và phát triển các loại vật liệu mới, hiện đại, tiên tiến, độc đáo, hiệu quả, xanh, bền vững… nhằm hướng tới sự phát triển bền vững trong công nghiệp xây dựng và kiến trúc, thiết kế và thi công trong các công trình xây dựng; có tính sáng tạo trong hoạt động nghề nghiệp, có khả năng tự học và tự nghiên cứu;<br><br>Có kỹ năng cá nhân, nghề nghiệp, giao tiếp, làm việc nhóm đủ để làm việc trong môi trường làm việc liên ngành, đa văn hóa;<br><br>Có hiểu biết về kinh tế, chính trị, có các kiến thức cơ bản trong lĩnh vực khoa học xã hội và n...</code> | | <code>Chương trình Kỹ thuật Môi trường đào tạo sinh viên về những năng lực nào và có điểm gì nổi bật đối với chương trình giảng dạy bằng tiếng Anh?</code> | <code>Sau khi tốt nghiệp, người học sẽ:<br><br>Có kiến thức cơ bản về toán học, khoa học tự nhiên, đáp ứng cho việc tiếp thu các kiến thức giáo dục chuyên nghiệp và khả năng học tập ở trình độ cao hơn<br><br>Có các kiến thức kỹ thuật cơ sở ngành và chuyên ngành giúp đủ năng lực phát hiện, giải quyết các vấn đề liên quan đến công nghệ sản xuất, chế tạo và ứng dụng vật liệu vào trong xây dựng, kiểm soát chất lượng nguyên vật liệu và cấu kiện sản phẩm xây dựng, nghiên cứu sản xuất chế tạo và phát triển các loại vật liệu mới, hiện đại, tiên tiến, độc đáo, hiệu quả, xanh, bền vững… nhằm hướng tới sự phát triển bền vững trong công nghiệp xây dựng và kiến trúc, thiết kế và thi công trong các công trình xây dựng; có tính sáng tạo trong hoạt động nghề nghiệp, có khả năng tự học và tự nghiên cứu;<br><br>Có kỹ năng cá nhân, nghề nghiệp, giao tiếp, làm việc nhóm đủ để làm việc trong môi trường làm việc liên ngành, đa văn hóa;<br><br>Có hiểu biết về kinh tế, chính trị, có các kiến thức cơ bản trong lĩnh vực khoa học xã hội và n...</code> | | <code>Ngành Kỹ thuật Dầu khí và Kỹ thuật Địa chất tập trung nghiên cứu và ứng dụng những lĩnh vực cốt lõi nào?</code> | <code>Các công ty nghiên cứu và khảo sát địa chất, tư vấn về nền móng công trình. Các tổ chức liên quan đến quy hoạch và phát triển đô thị. Kỹ thuật Dầu khí<br><br>Tổng quan<br><br>Kỹ thuật Dầu khí là ngành học chuyên nghiên cứu về các kỹ thuật khai thác, sản xuất và xử lý dầu khí. Sinh viên sẽ học các phương pháp khoan, khai thác dầu, khí tự nhiên, và xử lý các vấn đề kỹ thuật trong ngành dầu khí, từ việc tìm kiếm và khai thác tài nguyên cho đến việc tối ưu hóa quy trình sản xuất. CÁC ĐIỂM ĐẶC BIỆT<br><br>Khả năng ứng dụng cao: Sinh viên ngành Kỹ thuật Dầu khí sẽ được trang bị kiến thức thực tế về công nghệ khai thác dầu khí và các phương pháp tối ưu hóa sản xuất. Ngành công nghiệp chiến lược: Dầu khí vẫn là một trong những ngành công nghiệp mũi nhọn và cần nguồn nhân lực có trình độ cao trong việc khai thác và xử lý tài nguyên thiên nhiên. Triển vọng việc làm<br><br>Các công ty khai thác dầu khí trong nước và quốc tế. Các công ty tư vấn và kỹ thuật dầu khí, nghiên cứu các giải pháp tối ưu trong khai thác. Các côn...</code> | * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters: ```json { "loss": "MultipleNegativesRankingLoss", "matryoshka_dims": [ 768, 512, 256, 12 ], "matryoshka_weights": [ 1, 1, 1, 1 ], "n_dims_per_step": -1 } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: steps - `gradient_accumulation_steps`: 8 - `learning_rate`: 2e-05 - `num_train_epochs`: 30 - `lr_scheduler_type`: cosine - `warmup_ratio`: 0.1 - `bf16`: True - `tf32`: True - `dataloader_drop_last`: True - `dataloader_num_workers`: 8 - `load_best_model_at_end`: True - `batch_sampler`: no_duplicates #### All Hyperparameters <details><summary>Click to expand</summary> - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: steps - `prediction_loss_only`: True - `per_device_train_batch_size`: 8 - `per_device_eval_batch_size`: 8 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 8 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 2e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 30 - `max_steps`: -1 - `lr_scheduler_type`: cosine - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.1 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: True - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: True - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: True - `dataloader_num_workers`: 8 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: True - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch_fused - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `hub_revision`: None - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `liger_kernel_config`: None - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: no_duplicates - `multi_dataset_batch_sampler`: proportional - `router_mapping`: {} - `learning_rate_mapping`: {} </details> ### Training Logs | Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 | dim_512_cosine_ndcg@10 | dim_256_cosine_ndcg@10 | |:-------:|:----:|:-------------:|:----------------------:|:----------------------:|:----------------------:| | -1 | -1 | - | 0.4980 | 0.4994 | 0.4823 | | 0.4348 | 10 | 3.6503 | 0.5158 | 0.5133 | 0.4978 | | 0.8696 | 20 | 2.7131 | 0.5417 | 0.5388 | 0.5257 | | 1.3043 | 30 | 2.2307 | 0.5621 | 0.5637 | 0.5534 | | 1.7391 | 40 | 2.1341 | 0.5831 | 0.5840 | 0.5757 | | 2.1739 | 50 | 1.8576 | 0.6081 | 0.6077 | 0.5999 | | 2.6087 | 60 | 1.4278 | 0.6271 | 0.6278 | 0.6192 | | 3.0435 | 70 | 1.3602 | 0.6396 | 0.6412 | 0.6335 | | 3.4783 | 80 | 1.1086 | 0.6528 | 0.6550 | 0.6490 | | 3.9130 | 90 | 0.9657 | 0.6675 | 0.6704 | 0.6658 | | 4.3478 | 100 | 0.7836 | 0.6811 | 0.6777 | 0.6750 | | 4.7826 | 110 | 0.6755 | 0.6892 | 0.6883 | 0.6881 | | 5.2174 | 120 | 0.6679 | 0.6935 | 0.6955 | 0.6968 | | 5.6522 | 130 | 0.7005 | 0.7054 | 0.7078 | 0.7084 | | 6.0870 | 140 | 0.5895 | 0.7161 | 0.7161 | 0.7154 | | 6.5217 | 150 | 0.4809 | 0.7233 | 0.7232 | 0.7205 | | 6.9565 | 160 | 0.5287 | 0.7240 | 0.7260 | 0.7249 | | 7.3913 | 170 | 0.4976 | 0.7375 | 0.7404 | 0.7372 | | 7.8261 | 180 | 0.3886 | 0.7390 | 0.7418 | 0.7404 | | 8.2609 | 190 | 0.5025 | 0.7481 | 0.7531 | 0.7516 | | 8.6957 | 200 | 0.4322 | 0.7531 | 0.7568 | 0.7604 | | 9.1304 | 210 | 0.3929 | 0.7563 | 0.7616 | 0.7607 | | 9.5652 | 220 | 0.3131 | 0.7561 | 0.7647 | 0.7648 | | 10.0 | 230 | 0.4091 | 0.7568 | 0.7592 | 0.7616 | | 10.4348 | 240 | 0.3219 | 0.7557 | 0.7604 | 0.7643 | | 10.8696 | 250 | 0.3227 | 0.7677 | 0.7728 | 0.7774 | | 11.3043 | 260 | 0.3406 | 0.7742 | 0.7800 | 0.7850 | | 11.7391 | 270 | 0.2998 | 0.7759 | 0.7816 | 0.7845 | | 12.1739 | 280 | 0.2681 | 0.7766 | 0.7824 | 0.7867 | | 12.6087 | 290 | 0.2621 | 0.7774 | 0.7840 | 0.7839 | | 13.0435 | 300 | 0.3037 | 0.7782 | 0.7817 | 0.7863 | | 13.4783 | 310 | 0.3236 | 0.7911 | 0.7949 | 0.7958 | | 13.9130 | 320 | 0.2847 | 0.7962 | 0.8013 | 0.8026 | | 14.3478 | 330 | 0.3139 | 0.7983 | 0.8007 | 0.8068 | | 14.7826 | 340 | 0.2783 | 0.7994 | 0.8025 | 0.8081 | | 15.2609 | 350 | 0.2623 | 0.8041 | 0.8087 | 0.8102 | | 15.6957 | 360 | 0.2617 | 0.8102 | 0.8105 | 0.8149 | | 16.1304 | 370 | 0.2566 | 0.8132 | 0.8177 | 0.8205 | | 16.5652 | 380 | 0.2296 | 0.8166 | 0.8206 | 0.8236 | | 17.0 | 390 | 0.2334 | 0.8179 | 0.8231 | 0.8236 | | 17.4348 | 400 | 0.2386 | 0.8205 | 0.8249 | 0.8274 | | 17.8696 | 410 | 0.1751 | 0.8241 | 0.8261 | 0.8300 | | 18.3043 | 420 | 0.2488 | 0.8229 | 0.8263 | 0.8323 | | 18.7391 | 430 | 0.239 | 0.8272 | 0.8294 | 0.8344 | | 19.1739 | 440 | 0.2231 | 0.8329 | 0.8335 | 0.8360 | | 19.6087 | 450 | 0.2516 | 0.8341 | 0.8352 | 0.8411 | | 20.0435 | 460 | 0.2544 | 0.8325 | 0.8385 | 0.8425 | | 20.4783 | 470 | 0.2082 | 0.8348 | 0.8407 | 0.8457 | | 20.9130 | 480 | 0.1868 | 0.8361 | 0.8414 | 0.8460 | | 21.3478 | 490 | 0.2454 | 0.8361 | 0.8437 | 0.8454 | | 21.7826 | 500 | 0.222 | 0.8343 | 0.8435 | 0.8462 | | 22.2174 | 510 | 0.1554 | 0.8348 | 0.8430 | 0.8461 | | 22.6522 | 520 | 0.14 | 0.8352 | 0.8416 | 0.8454 | | 23.0870 | 530 | 0.1867 | 0.8357 | 0.8422 | 0.8463 | | 23.5217 | 540 | 0.2078 | 0.8361 | 0.8441 | 0.8449 | | 23.9565 | 550 | 0.1929 | 0.8370 | 0.8437 | 0.8437 | | 24.3913 | 560 | 0.1776 | 0.8380 | 0.8435 | 0.8428 | | 24.8261 | 570 | 0.2524 | 0.8387 | 0.8448 | 0.8449 | | 25.2609 | 580 | 0.1914 | 0.8406 | 0.8465 | 0.8458 | | 25.6957 | 590 | 0.1841 | 0.8414 | 0.8468 | 0.8471 | | 26.1304 | 600 | 0.165 | 0.8423 | 0.8476 | 0.8468 | | 26.5652 | 610 | 0.1717 | 0.8417 | 0.8489 | 0.8492 | | 27.0 | 620 | 0.2091 | 0.8414 | 0.8488 | 0.8484 | | 27.4348 | 630 | 0.1889 | 0.8414 | 0.8487 | 0.8486 | | 27.8696 | 640 | 0.2025 | 0.8418 | 0.8486 | 0.8483 | | 28.3043 | 650 | 0.1722 | 0.8415 | 0.8490 | 0.8488 | | 28.7391 | 660 | 0.1621 | 0.8418 | 0.8483 | 0.8490 | | 29.1739 | 670 | 0.1651 | 0.8422 | 0.8481 | 0.8492 | | 29.6087 | 680 | 0.1837 | 0.8421 | 0.8484 | 0.8484 | ### Framework Versions - Python: 3.10.12 - Sentence Transformers: 5.1.0 - Transformers: 4.55.2 - PyTorch: 2.8.0+cu128 - Accelerate: 1.10.0 - Datasets: 4.0.0 - Tokenizers: 0.21.4 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### MatryoshkaLoss ```bibtex @misc{kusupati2024matryoshka, title={Matryoshka Representation Learning}, author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi}, year={2024}, eprint={2205.13147}, archivePrefix={arXiv}, primaryClass={cs.LG} } ``` #### MultipleNegativesRankingLoss ```bibtex @misc{henderson2017efficient, title={Efficient Natural Language Response Suggestion for Smart Reply}, author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil}, year={2017}, eprint={1705.00652}, archivePrefix={arXiv}, primaryClass={cs.CL} } ``` <!-- ## Glossary *Clearly define terms in order to be accessible across audiences.* --> <!-- ## Model Card Authors *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* --> <!-- ## Model Card Contact *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* -->
lqpl/blockassist-bc-hairy_insectivorous_antelope_1755585896
lqpl
2025-08-19T06:48:01Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "hairy insectivorous antelope", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:45:50Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - hairy insectivorous antelope --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
Sayemahsjn/blockassist-bc-playful_feline_octopus_1755584903
Sayemahsjn
2025-08-19T06:47:10Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "playful feline octopus", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:47:06Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - playful feline octopus --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
donoway/ARC-Easy_Llama-3.2-1B-qba6fe5a
donoway
2025-08-19T06:45:46Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:33:14Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: ARC-Easy_Llama-3.2-1B-qba6fe5a results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # ARC-Easy_Llama-3.2-1B-qba6fe5a This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 2.1998 - Model Preparation Time: 0.006 - Mdl: 1808.9895 - Accumulated Loss: 1253.8960 - Correct Preds: 346.0 - Total Preds: 570.0 - Accuracy: 0.6070 - Correct Gen Preds: 337.0 - Gen Accuracy: 0.5912 - Correct Gen Preds 32: 123.0 - Correct Preds 32: 131.0 - Total Labels 32: 158.0 - Accuracy 32: 0.8291 - Gen Accuracy 32: 0.7785 - Correct Gen Preds 33: 106.0 - Correct Preds 33: 106.0 - Total Labels 33: 152.0 - Accuracy 33: 0.6974 - Gen Accuracy 33: 0.6974 - Correct Gen Preds 34: 74.0 - Correct Preds 34: 75.0 - Total Labels 34: 142.0 - Accuracy 34: 0.5282 - Gen Accuracy 34: 0.5211 - Correct Gen Preds 35: 34.0 - Correct Preds 35: 34.0 - Total Labels 35: 118.0 - Accuracy 35: 0.2881 - Gen Accuracy 35: 0.2881 - Correct Gen Preds 36: 0.0 - Correct Preds 36: 0.0 - Total Labels 36: 0.0 - Accuracy 36: 0.0 - Gen Accuracy 36: 0.0 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 64 - eval_batch_size: 112 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:| | No log | 0 | 0 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.4642 | 1.0 | 1 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.4642 | 2.0 | 2 | 2.4299 | 0.006 | 1998.1608 | 1385.0195 | 210.0 | 570.0 | 0.3684 | 210.0 | 0.3684 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 144.0 | 144.0 | 152.0 | 0.9474 | 0.9474 | 66.0 | 66.0 | 142.0 | 0.4648 | 0.4648 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.7757 | 3.0 | 3 | 1.2974 | 0.006 | 1066.9296 | 739.5393 | 185.0 | 570.0 | 0.3246 | 185.0 | 0.3246 | 6.0 | 6.0 | 158.0 | 0.0380 | 0.0380 | 152.0 | 152.0 | 152.0 | 1.0 | 1.0 | 27.0 | 27.0 | 142.0 | 0.1901 | 0.1901 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.6892 | 4.0 | 4 | 2.0158 | 0.006 | 1657.6402 | 1148.9886 | 279.0 | 570.0 | 0.4895 | 279.0 | 0.4895 | 148.0 | 148.0 | 158.0 | 0.9367 | 0.9367 | 48.0 | 48.0 | 152.0 | 0.3158 | 0.3158 | 57.0 | 57.0 | 142.0 | 0.4014 | 0.4014 | 26.0 | 26.0 | 118.0 | 0.2203 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.1661 | 5.0 | 5 | 2.1998 | 0.006 | 1808.9895 | 1253.8960 | 346.0 | 570.0 | 0.6070 | 337.0 | 0.5912 | 123.0 | 131.0 | 158.0 | 0.8291 | 0.7785 | 106.0 | 106.0 | 152.0 | 0.6974 | 0.6974 | 74.0 | 75.0 | 142.0 | 0.5282 | 0.5211 | 34.0 | 34.0 | 118.0 | 0.2881 | 0.2881 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0079 | 6.0 | 6 | 2.8282 | 0.006 | 2325.6988 | 1612.0516 | 343.0 | 570.0 | 0.6018 | 296.0 | 0.5193 | 84.0 | 123.0 | 158.0 | 0.7785 | 0.5316 | 105.0 | 109.0 | 152.0 | 0.7171 | 0.6908 | 72.0 | 76.0 | 142.0 | 0.5352 | 0.5070 | 35.0 | 35.0 | 118.0 | 0.2966 | 0.2966 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0001 | 7.0 | 7 | 3.1565 | 0.006 | 2595.6829 | 1799.1903 | 339.0 | 570.0 | 0.5947 | 264.0 | 0.4632 | 60.0 | 117.0 | 158.0 | 0.7405 | 0.3797 | 104.0 | 111.0 | 152.0 | 0.7303 | 0.6842 | 69.0 | 76.0 | 142.0 | 0.5352 | 0.4859 | 31.0 | 35.0 | 118.0 | 0.2966 | 0.2627 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 8.0 | 8 | 3.3429 | 0.006 | 2749.0232 | 1905.4777 | 331.0 | 570.0 | 0.5807 | 236.0 | 0.4140 | 40.0 | 112.0 | 158.0 | 0.7089 | 0.2532 | 101.0 | 110.0 | 152.0 | 0.7237 | 0.6645 | 68.0 | 77.0 | 142.0 | 0.5423 | 0.4789 | 27.0 | 32.0 | 118.0 | 0.2712 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 9.0 | 9 | 3.5286 | 0.006 | 2901.6844 | 2011.2944 | 327.0 | 570.0 | 0.5737 | 228.0 | 0.4 | 41.0 | 110.0 | 158.0 | 0.6962 | 0.2595 | 99.0 | 111.0 | 152.0 | 0.7303 | 0.6513 | 61.0 | 74.0 | 142.0 | 0.5211 | 0.4296 | 27.0 | 32.0 | 118.0 | 0.2712 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 10.0 | 10 | 3.6900 | 0.006 | 3034.4363 | 2103.3110 | 323.0 | 570.0 | 0.5667 | 227.0 | 0.3982 | 41.0 | 111.0 | 158.0 | 0.7025 | 0.2595 | 97.0 | 107.0 | 152.0 | 0.7039 | 0.6382 | 62.0 | 73.0 | 142.0 | 0.5141 | 0.4366 | 27.0 | 32.0 | 118.0 | 0.2712 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 11.0 | 11 | 3.7945 | 0.006 | 3120.3216 | 2162.8421 | 323.0 | 570.0 | 0.5667 | 230.0 | 0.4035 | 43.0 | 112.0 | 158.0 | 0.7089 | 0.2722 | 98.0 | 107.0 | 152.0 | 0.7039 | 0.6447 | 63.0 | 73.0 | 142.0 | 0.5141 | 0.4437 | 26.0 | 31.0 | 118.0 | 0.2627 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 12.0 | 12 | 3.8860 | 0.006 | 3195.5829 | 2215.0093 | 321.0 | 570.0 | 0.5632 | 227.0 | 0.3982 | 46.0 | 111.0 | 158.0 | 0.7025 | 0.2911 | 94.0 | 105.0 | 152.0 | 0.6908 | 0.6184 | 62.0 | 74.0 | 142.0 | 0.5211 | 0.4366 | 25.0 | 31.0 | 118.0 | 0.2627 | 0.2119 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 13.0 | 13 | 3.9627 | 0.006 | 3258.6448 | 2258.7204 | 321.0 | 570.0 | 0.5632 | 226.0 | 0.3965 | 45.0 | 110.0 | 158.0 | 0.6962 | 0.2848 | 94.0 | 106.0 | 152.0 | 0.6974 | 0.6184 | 62.0 | 74.0 | 142.0 | 0.5211 | 0.4366 | 25.0 | 31.0 | 118.0 | 0.2627 | 0.2119 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 14.0 | 14 | 4.0387 | 0.006 | 3321.1484 | 2302.0447 | 319.0 | 570.0 | 0.5596 | 227.0 | 0.3982 | 48.0 | 109.0 | 158.0 | 0.6899 | 0.3038 | 93.0 | 105.0 | 152.0 | 0.6908 | 0.6118 | 61.0 | 74.0 | 142.0 | 0.5211 | 0.4296 | 25.0 | 31.0 | 118.0 | 0.2627 | 0.2119 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 15.0 | 15 | 4.0577 | 0.006 | 3336.7945 | 2312.8897 | 319.0 | 570.0 | 0.5596 | 226.0 | 0.3965 | 48.0 | 109.0 | 158.0 | 0.6899 | 0.3038 | 91.0 | 106.0 | 152.0 | 0.6974 | 0.5987 | 60.0 | 74.0 | 142.0 | 0.5211 | 0.4225 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 16.0 | 16 | 4.0975 | 0.006 | 3369.4997 | 2335.5592 | 317.0 | 570.0 | 0.5561 | 224.0 | 0.3930 | 50.0 | 109.0 | 158.0 | 0.6899 | 0.3165 | 88.0 | 104.0 | 152.0 | 0.6842 | 0.5789 | 60.0 | 73.0 | 142.0 | 0.5141 | 0.4225 | 26.0 | 31.0 | 118.0 | 0.2627 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 17.0 | 17 | 4.1230 | 0.006 | 3390.5230 | 2350.1314 | 316.0 | 570.0 | 0.5544 | 229.0 | 0.4018 | 51.0 | 108.0 | 158.0 | 0.6835 | 0.3228 | 91.0 | 104.0 | 152.0 | 0.6842 | 0.5987 | 60.0 | 74.0 | 142.0 | 0.5211 | 0.4225 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 18.0 | 18 | 4.1552 | 0.006 | 3416.9873 | 2368.4751 | 318.0 | 570.0 | 0.5579 | 229.0 | 0.4018 | 51.0 | 108.0 | 158.0 | 0.6835 | 0.3228 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 31.0 | 118.0 | 0.2627 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 19.0 | 19 | 4.1977 | 0.006 | 3451.8923 | 2392.6694 | 316.0 | 570.0 | 0.5544 | 227.0 | 0.3982 | 50.0 | 108.0 | 158.0 | 0.6835 | 0.3165 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 62.0 | 75.0 | 142.0 | 0.5282 | 0.4366 | 26.0 | 30.0 | 118.0 | 0.2542 | 0.2203 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 20.0 | 20 | 4.1922 | 0.006 | 3447.4190 | 2389.5688 | 317.0 | 570.0 | 0.5561 | 228.0 | 0.4 | 51.0 | 109.0 | 158.0 | 0.6899 | 0.3228 | 89.0 | 104.0 | 152.0 | 0.6842 | 0.5855 | 60.0 | 74.0 | 142.0 | 0.5211 | 0.4225 | 28.0 | 30.0 | 118.0 | 0.2542 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 21.0 | 21 | 4.2154 | 0.006 | 3466.4538 | 2402.7627 | 317.0 | 570.0 | 0.5561 | 231.0 | 0.4053 | 53.0 | 109.0 | 158.0 | 0.6899 | 0.3354 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 22.0 | 22 | 4.2255 | 0.006 | 3474.8213 | 2408.5626 | 319.0 | 570.0 | 0.5596 | 231.0 | 0.4053 | 51.0 | 108.0 | 158.0 | 0.6835 | 0.3228 | 90.0 | 103.0 | 152.0 | 0.6776 | 0.5921 | 63.0 | 78.0 | 142.0 | 0.5493 | 0.4437 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 23.0 | 23 | 4.2222 | 0.006 | 3472.0563 | 2406.6461 | 323.0 | 570.0 | 0.5667 | 234.0 | 0.4105 | 53.0 | 111.0 | 158.0 | 0.7025 | 0.3354 | 89.0 | 104.0 | 152.0 | 0.6842 | 0.5855 | 64.0 | 77.0 | 142.0 | 0.5423 | 0.4507 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 24.0 | 24 | 4.2449 | 0.006 | 3490.7282 | 2419.5884 | 318.0 | 570.0 | 0.5579 | 233.0 | 0.4088 | 53.0 | 108.0 | 158.0 | 0.6835 | 0.3354 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 63.0 | 76.0 | 142.0 | 0.5352 | 0.4437 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 25.0 | 25 | 4.2439 | 0.006 | 3489.9021 | 2419.0158 | 317.0 | 570.0 | 0.5561 | 234.0 | 0.4105 | 53.0 | 107.0 | 158.0 | 0.6772 | 0.3354 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 64.0 | 76.0 | 142.0 | 0.5352 | 0.4507 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 26.0 | 26 | 4.2465 | 0.006 | 3492.0437 | 2420.5002 | 316.0 | 570.0 | 0.5544 | 233.0 | 0.4088 | 55.0 | 109.0 | 158.0 | 0.6899 | 0.3481 | 89.0 | 101.0 | 152.0 | 0.6645 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 27.0 | 27 | 4.2626 | 0.006 | 3505.3292 | 2429.7091 | 317.0 | 570.0 | 0.5561 | 233.0 | 0.4088 | 54.0 | 109.0 | 158.0 | 0.6899 | 0.3418 | 88.0 | 102.0 | 152.0 | 0.6711 | 0.5789 | 62.0 | 75.0 | 142.0 | 0.5282 | 0.4366 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 28.0 | 28 | 4.2468 | 0.006 | 3492.3048 | 2420.6812 | 320.0 | 570.0 | 0.5614 | 234.0 | 0.4105 | 53.0 | 108.0 | 158.0 | 0.6835 | 0.3354 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 63.0 | 78.0 | 142.0 | 0.5493 | 0.4437 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 29.0 | 29 | 4.2713 | 0.006 | 3512.4807 | 2434.6661 | 318.0 | 570.0 | 0.5579 | 233.0 | 0.4088 | 54.0 | 109.0 | 158.0 | 0.6899 | 0.3418 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 30.0 | 30 | 4.2732 | 0.006 | 3513.9739 | 2435.7011 | 317.0 | 570.0 | 0.5561 | 234.0 | 0.4105 | 54.0 | 108.0 | 158.0 | 0.6835 | 0.3418 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 31.0 | 31 | 4.2507 | 0.006 | 3495.4848 | 2422.8854 | 319.0 | 570.0 | 0.5596 | 232.0 | 0.4070 | 53.0 | 109.0 | 158.0 | 0.6899 | 0.3354 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 77.0 | 142.0 | 0.5423 | 0.4366 | 28.0 | 31.0 | 118.0 | 0.2627 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 32.0 | 32 | 4.2647 | 0.006 | 3507.0566 | 2430.9064 | 321.0 | 570.0 | 0.5632 | 235.0 | 0.4123 | 54.0 | 109.0 | 158.0 | 0.6899 | 0.3418 | 89.0 | 104.0 | 152.0 | 0.6842 | 0.5855 | 64.0 | 78.0 | 142.0 | 0.5493 | 0.4507 | 28.0 | 30.0 | 118.0 | 0.2542 | 0.2373 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 33.0 | 33 | 4.2689 | 0.006 | 3510.5114 | 2433.3011 | 315.0 | 570.0 | 0.5526 | 230.0 | 0.4035 | 52.0 | 106.0 | 158.0 | 0.6709 | 0.3291 | 88.0 | 102.0 | 152.0 | 0.6711 | 0.5789 | 63.0 | 77.0 | 142.0 | 0.5423 | 0.4437 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 34.0 | 34 | 4.2978 | 0.006 | 3534.2027 | 2449.7226 | 318.0 | 570.0 | 0.5579 | 233.0 | 0.4088 | 55.0 | 109.0 | 158.0 | 0.6899 | 0.3481 | 89.0 | 103.0 | 152.0 | 0.6776 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 27.0 | 30.0 | 118.0 | 0.2542 | 0.2288 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 35.0 | 35 | 4.2874 | 0.006 | 3525.6484 | 2443.7932 | 319.0 | 570.0 | 0.5596 | 233.0 | 0.4088 | 53.0 | 110.0 | 158.0 | 0.6962 | 0.3354 | 89.0 | 102.0 | 152.0 | 0.6711 | 0.5855 | 62.0 | 76.0 | 142.0 | 0.5352 | 0.4366 | 29.0 | 31.0 | 118.0 | 0.2627 | 0.2458 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
tslim1/AceMath-7B-Instruct-mlx-8Bit
tslim1
2025-08-19T06:45:00Z
0
0
mlx
[ "mlx", "safetensors", "qwen2", "nvidia", "AceMath", "math", "CoT", "pytorch", "mlx-my-repo", "text-generation", "conversational", "en", "base_model:nvidia/AceMath-7B-Instruct", "base_model:quantized:nvidia/AceMath-7B-Instruct", "license:cc-by-nc-4.0", "8-bit", "region:us" ]
text-generation
2025-08-19T06:44:13Z
--- license: cc-by-nc-4.0 language: - en pipeline_tag: text-generation tags: - nvidia - AceMath - math - CoT - pytorch - mlx - mlx-my-repo base_model: nvidia/AceMath-7B-Instruct --- # tslim1/AceMath-7B-Instruct-mlx-8Bit The Model [tslim1/AceMath-7B-Instruct-mlx-8Bit](https://huggingface.co/tslim1/AceMath-7B-Instruct-mlx-8Bit) was converted to MLX format from [nvidia/AceMath-7B-Instruct](https://huggingface.co/nvidia/AceMath-7B-Instruct) using mlx-lm version **0.26.3**. ## Use with mlx ```bash pip install mlx-lm ``` ```python from mlx_lm import load, generate model, tokenizer = load("tslim1/AceMath-7B-Instruct-mlx-8Bit") prompt="hello" if hasattr(tokenizer, "apply_chat_template") and tokenizer.chat_template is not None: messages = [{"role": "user", "content": prompt}] prompt = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) response = generate(model, tokenizer, prompt=prompt, verbose=True) ```
KCS97/poop_emoji
KCS97
2025-08-19T06:44:52Z
0
0
diffusers
[ "diffusers", "tensorboard", "safetensors", "text-to-image", "dreambooth", "diffusers-training", "stable-diffusion", "stable-diffusion-diffusers", "base_model:stable-diffusion-v1-5/stable-diffusion-v1-5", "base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5", "license:creativeml-openrail-m", "autotrain_compatible", "endpoints_compatible", "diffusers:StableDiffusionPipeline", "region:us" ]
text-to-image
2025-08-19T06:33:48Z
--- base_model: stable-diffusion-v1-5/stable-diffusion-v1-5 library_name: diffusers license: creativeml-openrail-m inference: true instance_prompt: a photo of sks emoji tags: - text-to-image - dreambooth - diffusers-training - stable-diffusion - stable-diffusion-diffusers --- <!-- This model card has been generated automatically according to the information the training script had access to. You should probably proofread and complete it, then remove this comment. --> # DreamBooth - KCS97/poop_emoji This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks emoji using [DreamBooth](https://dreambooth.github.io/). You can find some example images in the following. DreamBooth for the text encoder was enabled: False. ## Intended uses & limitations #### How to use ```python # TODO: add an example code snippet for running this diffusion pipeline ``` #### Limitations and bias [TODO: provide examples of latent issues and potential remediations] ## Training details [TODO: describe the data used to train the model]
VoilaRaj/78_IPMZFU
VoilaRaj
2025-08-19T06:43:52Z
0
0
null
[ "safetensors", "any-to-any", "omega", "omegalabs", "bittensor", "agi", "license:mit", "region:us" ]
any-to-any
2025-08-19T06:40:03Z
--- license: mit tags: - any-to-any - omega - omegalabs - bittensor - agi --- This is an Any-to-Any model checkpoint for the OMEGA Labs x Bittensor Any-to-Any subnet. Check out the [git repo](https://github.com/omegalabsinc/omegalabs-anytoany-bittensor) and find OMEGA on X: [@omegalabsai](https://x.com/omegalabsai).
0xaoyama/blockassist-bc-muscular_zealous_gorilla_1755585729
0xaoyama
2025-08-19T06:42:58Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "muscular zealous gorilla", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:42:47Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - muscular zealous gorilla --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
truong1301/deepseek_task7_3
truong1301
2025-08-19T06:35:31Z
0
0
transformers
[ "transformers", "safetensors", "text-generation-inference", "unsloth", "qwen2", "trl", "en", "base_model:unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit", "base_model:finetune:unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit", "license:apache-2.0", "endpoints_compatible", "region:us" ]
null
2025-08-19T06:34:57Z
--- base_model: unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - qwen2 - trl license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** truong1301 - **License:** apache-2.0 - **Finetuned from model :** unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit This qwen2 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
ianmathu/Llama-3.2-3B-Instruct-unsloth-bnb-4bit-alpaca
ianmathu
2025-08-19T06:34:22Z
0
0
transformers
[ "transformers", "safetensors", "unsloth", "arxiv:1910.09700", "endpoints_compatible", "region:us" ]
null
2025-08-19T06:33:35Z
--- library_name: transformers tags: - unsloth --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
donoway/ARC-Challenge_Llama-3.2-1B-wgzurb4i
donoway
2025-08-19T06:32:56Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:22:57Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: ARC-Challenge_Llama-3.2-1B-wgzurb4i results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # ARC-Challenge_Llama-3.2-1B-wgzurb4i This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 1.9193 - Model Preparation Time: 0.0058 - Mdl: 827.9179 - Accumulated Loss: 573.8690 - Correct Preds: 85.0 - Total Preds: 299.0 - Accuracy: 0.2843 - Correct Gen Preds: 1.0 - Gen Accuracy: 0.0033 - Correct Gen Preds 32: 0.0 - Correct Preds 32: 23.0 - Total Labels 32: 64.0 - Accuracy 32: 0.3594 - Gen Accuracy 32: 0.0 - Correct Gen Preds 33: 0.0 - Correct Preds 33: 48.0 - Total Labels 33: 73.0 - Accuracy 33: 0.6575 - Gen Accuracy 33: 0.0 - Correct Gen Preds 34: 0.0 - Correct Preds 34: 1.0 - Total Labels 34: 78.0 - Accuracy 34: 0.0128 - Gen Accuracy 34: 0.0 - Correct Gen Preds 35: 1.0 - Correct Preds 35: 13.0 - Total Labels 35: 83.0 - Accuracy 35: 0.1566 - Gen Accuracy 35: 0.0120 - Correct Gen Preds 36: 0.0 - Correct Preds 36: 0.0 - Total Labels 36: 1.0 - Accuracy 36: 0.0 - Gen Accuracy 36: 0.0 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 64 - eval_batch_size: 112 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:| | No log | 0 | 0 | 1.6389 | 0.0058 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 1.7999 | 1.0 | 1 | 1.6389 | 0.0058 | 706.9523 | 490.0220 | 66.0 | 299.0 | 0.2207 | 66.0 | 0.2207 | 62.0 | 62.0 | 64.0 | 0.9688 | 0.9688 | 0.0 | 0.0 | 73.0 | 0.0 | 0.0 | 4.0 | 4.0 | 78.0 | 0.0513 | 0.0513 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 1.8225 | 2.0 | 2 | 2.6831 | 0.0058 | 1157.4179 | 802.2610 | 73.0 | 299.0 | 0.2441 | 73.0 | 0.2441 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 73.0 | 73.0 | 73.0 | 1.0 | 1.0 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 0.0 | 0.0 | 83.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 1.3461 | 3.0 | 3 | 1.9193 | 0.0058 | 827.9179 | 573.8690 | 85.0 | 299.0 | 0.2843 | 1.0 | 0.0033 | 0.0 | 23.0 | 64.0 | 0.3594 | 0.0 | 0.0 | 48.0 | 73.0 | 0.6575 | 0.0 | 0.0 | 1.0 | 78.0 | 0.0128 | 0.0 | 1.0 | 13.0 | 83.0 | 0.1566 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.9697 | 4.0 | 4 | 1.8682 | 0.0058 | 805.8738 | 558.5892 | 78.0 | 299.0 | 0.2609 | 68.0 | 0.2274 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 53.0 | 61.0 | 73.0 | 0.8356 | 0.7260 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 15.0 | 17.0 | 83.0 | 0.2048 | 0.1807 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.6039 | 5.0 | 5 | 2.2833 | 0.0058 | 984.9399 | 682.7083 | 74.0 | 299.0 | 0.2475 | 54.0 | 0.1806 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 53.0 | 73.0 | 73.0 | 1.0 | 0.7260 | 0.0 | 0.0 | 78.0 | 0.0 | 0.0 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.1602 | 6.0 | 6 | 2.6340 | 0.0058 | 1136.2166 | 787.5654 | 75.0 | 299.0 | 0.2508 | 27.0 | 0.0903 | 0.0 | 0.0 | 64.0 | 0.0 | 0.0 | 25.0 | 71.0 | 73.0 | 0.9726 | 0.3425 | 1.0 | 3.0 | 78.0 | 0.0385 | 0.0128 | 1.0 | 1.0 | 83.0 | 0.0120 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0187 | 7.0 | 7 | 2.9628 | 0.0058 | 1278.0297 | 885.8627 | 72.0 | 299.0 | 0.2408 | 17.0 | 0.0569 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 13.0 | 64.0 | 73.0 | 0.8767 | 0.1781 | 3.0 | 4.0 | 78.0 | 0.0513 | 0.0385 | 1.0 | 3.0 | 83.0 | 0.0361 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0013 | 8.0 | 8 | 3.2575 | 0.0058 | 1405.1697 | 973.9894 | 72.0 | 299.0 | 0.2408 | 13.0 | 0.0435 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 9.0 | 62.0 | 73.0 | 0.8493 | 0.1233 | 3.0 | 4.0 | 78.0 | 0.0513 | 0.0385 | 1.0 | 5.0 | 83.0 | 0.0602 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0002 | 9.0 | 9 | 3.4603 | 0.0058 | 1492.6757 | 1034.6439 | 72.0 | 299.0 | 0.2408 | 12.0 | 0.0401 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 61.0 | 73.0 | 0.8356 | 0.0959 | 3.0 | 4.0 | 78.0 | 0.0513 | 0.0385 | 2.0 | 6.0 | 83.0 | 0.0723 | 0.0241 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0001 | 10.0 | 10 | 3.6246 | 0.0058 | 1563.5373 | 1083.7615 | 73.0 | 299.0 | 0.2441 | 13.0 | 0.0435 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 8.0 | 60.0 | 73.0 | 0.8219 | 0.1096 | 3.0 | 5.0 | 78.0 | 0.0641 | 0.0385 | 2.0 | 7.0 | 83.0 | 0.0843 | 0.0241 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 11.0 | 11 | 3.7564 | 0.0058 | 1620.3818 | 1123.1631 | 74.0 | 299.0 | 0.2475 | 12.0 | 0.0401 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 8.0 | 58.0 | 73.0 | 0.7945 | 0.1096 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 12.0 | 12 | 3.8610 | 0.0058 | 1665.5082 | 1154.4423 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 13.0 | 13 | 3.9492 | 0.0058 | 1703.5624 | 1180.8195 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 14.0 | 14 | 4.0205 | 0.0058 | 1734.2980 | 1202.1238 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 15.0 | 15 | 4.0650 | 0.0058 | 1753.4997 | 1215.4334 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 7.0 | 78.0 | 0.0897 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 16.0 | 16 | 4.1048 | 0.0058 | 1770.6704 | 1227.3352 | 74.0 | 299.0 | 0.2475 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 56.0 | 73.0 | 0.7671 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 17.0 | 17 | 4.1270 | 0.0058 | 1780.2283 | 1233.9602 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 54.0 | 73.0 | 0.7397 | 0.0959 | 3.0 | 8.0 | 78.0 | 0.1026 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 18.0 | 18 | 4.1560 | 0.0058 | 1792.7773 | 1242.6585 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 54.0 | 73.0 | 0.7397 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 19.0 | 19 | 4.1837 | 0.0058 | 1804.7127 | 1250.9315 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 8.0 | 78.0 | 0.1026 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 20.0 | 20 | 4.2006 | 0.0058 | 1811.9983 | 1255.9815 | 72.0 | 299.0 | 0.2408 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 54.0 | 73.0 | 0.7397 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 21.0 | 21 | 4.2145 | 0.0058 | 1818.0010 | 1260.1423 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 22.0 | 22 | 4.2290 | 0.0058 | 1824.2639 | 1264.4834 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 23.0 | 23 | 4.2366 | 0.0058 | 1827.5084 | 1266.7323 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 24.0 | 24 | 4.2348 | 0.0058 | 1826.7551 | 1266.2101 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 25.0 | 25 | 4.2429 | 0.0058 | 1830.2455 | 1268.6295 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 26.0 | 26 | 4.2432 | 0.0058 | 1830.3748 | 1268.7191 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 27.0 | 27 | 4.2533 | 0.0058 | 1834.7450 | 1271.7483 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 28.0 | 28 | 4.2639 | 0.0058 | 1839.2829 | 1274.8938 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 53.0 | 73.0 | 0.7260 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 29.0 | 29 | 4.2638 | 0.0058 | 1839.2620 | 1274.8792 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 30.0 | 30 | 4.2640 | 0.0058 | 1839.3466 | 1274.9379 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 2.0 | 64.0 | 0.0312 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 31.0 | 31 | 4.2660 | 0.0058 | 1840.1879 | 1275.5211 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 2.0 | 64.0 | 0.0312 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 32.0 | 32 | 4.2655 | 0.0058 | 1839.9913 | 1275.3848 | 70.0 | 299.0 | 0.2341 | 11.0 | 0.0368 | 0.0 | 1.0 | 64.0 | 0.0156 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | | 0.0 | 33.0 | 33 | 4.2671 | 0.0058 | 1840.6805 | 1275.8625 | 71.0 | 299.0 | 0.2375 | 11.0 | 0.0368 | 0.0 | 2.0 | 64.0 | 0.0312 | 0.0 | 7.0 | 52.0 | 73.0 | 0.7123 | 0.0959 | 3.0 | 9.0 | 78.0 | 0.1154 | 0.0385 | 1.0 | 8.0 | 83.0 | 0.0964 | 0.0120 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
hakimjustbao/blockassist-bc-raging_subtle_wasp_1755583495
hakimjustbao
2025-08-19T06:32:50Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "raging subtle wasp", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:32:46Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - raging subtle wasp --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
oegbo/gemma3-radiography-processor
oegbo
2025-08-19T06:31:54Z
0
0
transformers
[ "transformers", "unsloth", "arxiv:1910.09700", "endpoints_compatible", "region:us" ]
null
2025-08-19T06:31:46Z
--- library_name: transformers tags: - unsloth --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
donoway/BoolQ_Llama-3.2-1B-5r42yp3k
donoway
2025-08-19T06:31:35Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T05:21:38Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: BoolQ_Llama-3.2-1B-5r42yp3k results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # BoolQ_Llama-3.2-1B-5r42yp3k This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 1.5466 - Model Preparation Time: 0.0056 - Mdl: 7296.3329 - Accumulated Loss: 5057.4326 - Correct Preds: 2619.0 - Total Preds: 3270.0 - Accuracy: 0.8009 - Correct Gen Preds: 2594.0 - Gen Accuracy: 0.7933 - Correct Gen Preds 9642: 1748.0 - Correct Preds 9642: 1776.0 - Total Labels 9642: 2026.0 - Accuracy 9642: 0.8766 - Gen Accuracy 9642: 0.8628 - Correct Gen Preds 2822: 838.0 - Correct Preds 2822: 843.0 - Total Labels 2822: 1231.0 - Accuracy 2822: 0.6848 - Gen Accuracy 2822: 0.6807 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 32 - eval_batch_size: 120 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 9642 | Correct Preds 9642 | Total Labels 9642 | Accuracy 9642 | Gen Accuracy 9642 | Correct Gen Preds 2822 | Correct Preds 2822 | Total Labels 2822 | Accuracy 2822 | Gen Accuracy 2822 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:|:----------------------:|:------------------:|:-----------------:|:-------------:|:-----------------:| | No log | 0 | 0 | 0.7080 | 0.0056 | 3339.8933 | 2315.0376 | 2032.0 | 3270.0 | 0.6214 | 2040.0 | 0.6239 | 2007.0 | 2008.0 | 2026.0 | 0.9911 | 0.9906 | 24.0 | 24.0 | 1231.0 | 0.0195 | 0.0195 | | 0.4335 | 1.0 | 43 | 0.5330 | 0.0056 | 2514.6645 | 1743.0326 | 2457.0 | 3270.0 | 0.7514 | 2447.0 | 0.7483 | 1619.0 | 1630.0 | 2026.0 | 0.8045 | 0.7991 | 819.0 | 827.0 | 1231.0 | 0.6718 | 0.6653 | | 0.2605 | 2.0 | 86 | 0.6563 | 0.0056 | 3096.0653 | 2146.0289 | 2450.0 | 3270.0 | 0.7492 | 1969.0 | 0.6021 | 1023.0 | 1427.0 | 2026.0 | 0.7043 | 0.5049 | 939.0 | 1023.0 | 1231.0 | 0.8310 | 0.7628 | | 0.0158 | 3.0 | 129 | 1.0674 | 0.0056 | 5035.6484 | 3490.4455 | 2536.0 | 3270.0 | 0.7755 | 2378.0 | 0.7272 | 1717.0 | 1872.0 | 2026.0 | 0.9240 | 0.8475 | 654.0 | 664.0 | 1231.0 | 0.5394 | 0.5313 | | 0.1505 | 4.0 | 172 | 1.4954 | 0.0056 | 7054.8825 | 4890.0719 | 2587.0 | 3270.0 | 0.7911 | 2572.0 | 0.7865 | 1811.0 | 1831.0 | 2026.0 | 0.9038 | 0.8939 | 752.0 | 756.0 | 1231.0 | 0.6141 | 0.6109 | | 0.0 | 5.0 | 215 | 1.4715 | 0.0056 | 6942.0371 | 4811.8535 | 2611.0 | 3270.0 | 0.7985 | 2575.0 | 0.7875 | 1690.0 | 1727.0 | 2026.0 | 0.8524 | 0.8342 | 877.0 | 884.0 | 1231.0 | 0.7181 | 0.7124 | | 0.0004 | 6.0 | 258 | 1.5466 | 0.0056 | 7296.3329 | 5057.4326 | 2619.0 | 3270.0 | 0.8009 | 2594.0 | 0.7933 | 1748.0 | 1776.0 | 2026.0 | 0.8766 | 0.8628 | 838.0 | 843.0 | 1231.0 | 0.6848 | 0.6807 | | 0.0 | 7.0 | 301 | 1.5498 | 0.0056 | 7311.3028 | 5067.8089 | 2617.0 | 3270.0 | 0.8003 | 2587.0 | 0.7911 | 1708.0 | 1739.0 | 2026.0 | 0.8583 | 0.8430 | 871.0 | 878.0 | 1231.0 | 0.7132 | 0.7076 | | 0.0 | 8.0 | 344 | 1.5583 | 0.0056 | 7351.5687 | 5095.7191 | 2617.0 | 3270.0 | 0.8003 | 2591.0 | 0.7924 | 1708.0 | 1737.0 | 2026.0 | 0.8574 | 0.8430 | 875.0 | 880.0 | 1231.0 | 0.7149 | 0.7108 | | 0.0 | 9.0 | 387 | 1.5645 | 0.0056 | 7380.4891 | 5115.7652 | 2615.0 | 3270.0 | 0.7997 | 2589.0 | 0.7917 | 1710.0 | 1738.0 | 2026.0 | 0.8578 | 0.8440 | 871.0 | 877.0 | 1231.0 | 0.7124 | 0.7076 | | 0.0 | 10.0 | 430 | 1.5689 | 0.0056 | 7401.5336 | 5130.3521 | 2615.0 | 3270.0 | 0.7997 | 2593.0 | 0.7930 | 1712.0 | 1738.0 | 2026.0 | 0.8578 | 0.8450 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 | | 0.0 | 11.0 | 473 | 1.5753 | 0.0056 | 7431.6332 | 5151.2156 | 2618.0 | 3270.0 | 0.8006 | 2595.0 | 0.7936 | 1713.0 | 1738.0 | 2026.0 | 0.8578 | 0.8455 | 873.0 | 880.0 | 1231.0 | 0.7149 | 0.7092 | | 0.0 | 12.0 | 516 | 1.5764 | 0.0056 | 7436.8304 | 5154.8180 | 2617.0 | 3270.0 | 0.8003 | 2594.0 | 0.7933 | 1714.0 | 1739.0 | 2026.0 | 0.8583 | 0.8460 | 872.0 | 878.0 | 1231.0 | 0.7132 | 0.7084 | | 0.0 | 13.0 | 559 | 1.5821 | 0.0056 | 7463.8777 | 5173.5658 | 2616.0 | 3270.0 | 0.8 | 2592.0 | 0.7927 | 1712.0 | 1738.0 | 2026.0 | 0.8578 | 0.8450 | 872.0 | 878.0 | 1231.0 | 0.7132 | 0.7084 | | 0.0 | 14.0 | 602 | 1.5848 | 0.0056 | 7476.3623 | 5182.2194 | 2615.0 | 3270.0 | 0.7997 | 2592.0 | 0.7927 | 1711.0 | 1737.0 | 2026.0 | 0.8574 | 0.8445 | 873.0 | 878.0 | 1231.0 | 0.7132 | 0.7092 | | 0.0 | 15.0 | 645 | 1.5866 | 0.0056 | 7484.9367 | 5188.1628 | 2617.0 | 3270.0 | 0.8003 | 2595.0 | 0.7936 | 1712.0 | 1738.0 | 2026.0 | 0.8578 | 0.8450 | 874.0 | 879.0 | 1231.0 | 0.7141 | 0.7100 | | 0.9802 | 16.0 | 688 | 1.5898 | 0.0056 | 7499.9718 | 5198.5843 | 2617.0 | 3270.0 | 0.8003 | 2597.0 | 0.7942 | 1714.0 | 1738.0 | 2026.0 | 0.8578 | 0.8460 | 875.0 | 879.0 | 1231.0 | 0.7141 | 0.7108 | | 0.0 | 17.0 | 731 | 1.5963 | 0.0056 | 7530.6554 | 5219.8526 | 2616.0 | 3270.0 | 0.8 | 2597.0 | 0.7942 | 1715.0 | 1739.0 | 2026.0 | 0.8583 | 0.8465 | 874.0 | 877.0 | 1231.0 | 0.7124 | 0.7100 | | 0.0 | 18.0 | 774 | 1.6015 | 0.0056 | 7555.0401 | 5236.7547 | 2613.0 | 3270.0 | 0.7991 | 2592.0 | 0.7927 | 1712.0 | 1737.0 | 2026.0 | 0.8574 | 0.8450 | 872.0 | 876.0 | 1231.0 | 0.7116 | 0.7084 | | 0.0 | 19.0 | 817 | 1.5991 | 0.0056 | 7543.8108 | 5228.9712 | 2618.0 | 3270.0 | 0.8006 | 2597.0 | 0.7942 | 1713.0 | 1738.0 | 2026.0 | 0.8578 | 0.8455 | 876.0 | 880.0 | 1231.0 | 0.7149 | 0.7116 | | 0.0 | 20.0 | 860 | 1.6021 | 0.0056 | 7558.1173 | 5238.8877 | 2616.0 | 3270.0 | 0.8 | 2596.0 | 0.7939 | 1715.0 | 1739.0 | 2026.0 | 0.8583 | 0.8465 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 | | 0.0 | 21.0 | 903 | 1.6036 | 0.0056 | 7565.0561 | 5243.6973 | 2614.0 | 3270.0 | 0.7994 | 2594.0 | 0.7933 | 1713.0 | 1737.0 | 2026.0 | 0.8574 | 0.8455 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 | | 0.0 | 22.0 | 946 | 1.6052 | 0.0056 | 7572.8549 | 5249.1031 | 2615.0 | 3270.0 | 0.7997 | 2596.0 | 0.7939 | 1713.0 | 1737.0 | 2026.0 | 0.8574 | 0.8455 | 874.0 | 878.0 | 1231.0 | 0.7132 | 0.7100 | | 0.0 | 23.0 | 989 | 1.6049 | 0.0056 | 7571.4610 | 5248.1369 | 2614.0 | 3270.0 | 0.7994 | 2595.0 | 0.7936 | 1712.0 | 1736.0 | 2026.0 | 0.8569 | 0.8450 | 875.0 | 878.0 | 1231.0 | 0.7132 | 0.7108 | | 0.0 | 24.0 | 1032 | 1.6037 | 0.0056 | 7565.6381 | 5244.1007 | 2616.0 | 3270.0 | 0.8 | 2597.0 | 0.7942 | 1716.0 | 1739.0 | 2026.0 | 0.8583 | 0.8470 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 | | 0.0 | 25.0 | 1075 | 1.6096 | 0.0056 | 7593.4658 | 5263.3894 | 2615.0 | 3270.0 | 0.7997 | 2595.0 | 0.7936 | 1714.0 | 1738.0 | 2026.0 | 0.8578 | 0.8460 | 873.0 | 877.0 | 1231.0 | 0.7124 | 0.7092 | | 0.0 | 26.0 | 1118 | 1.6081 | 0.0056 | 7586.3418 | 5258.4514 | 2618.0 | 3270.0 | 0.8006 | 2600.0 | 0.7951 | 1717.0 | 1739.0 | 2026.0 | 0.8583 | 0.8475 | 875.0 | 879.0 | 1231.0 | 0.7141 | 0.7108 | | 0.0 | 27.0 | 1161 | 1.6060 | 0.0056 | 7576.7036 | 5251.7707 | 2615.0 | 3270.0 | 0.7997 | 2594.0 | 0.7933 | 1712.0 | 1737.0 | 2026.0 | 0.8574 | 0.8450 | 874.0 | 878.0 | 1231.0 | 0.7132 | 0.7100 | | 0.0 | 28.0 | 1204 | 1.6088 | 0.0056 | 7589.7099 | 5260.7860 | 2617.0 | 3270.0 | 0.8003 | 2598.0 | 0.7945 | 1717.0 | 1739.0 | 2026.0 | 0.8583 | 0.8475 | 873.0 | 878.0 | 1231.0 | 0.7132 | 0.7092 | | 0.0 | 29.0 | 1247 | 1.6068 | 0.0056 | 7580.2581 | 5254.2345 | 2613.0 | 3270.0 | 0.7991 | 2595.0 | 0.7936 | 1717.0 | 1740.0 | 2026.0 | 0.8588 | 0.8475 | 869.0 | 873.0 | 1231.0 | 0.7092 | 0.7059 | | 0.0 | 30.0 | 1290 | 1.6088 | 0.0056 | 7589.7604 | 5260.8210 | 2616.0 | 3270.0 | 0.8 | 2599.0 | 0.7948 | 1716.0 | 1738.0 | 2026.0 | 0.8578 | 0.8470 | 875.0 | 878.0 | 1231.0 | 0.7132 | 0.7108 | | 0.0 | 31.0 | 1333 | 1.6060 | 0.0056 | 7576.4338 | 5251.5837 | 2611.0 | 3270.0 | 0.7985 | 2592.0 | 0.7927 | 1713.0 | 1736.0 | 2026.0 | 0.8569 | 0.8455 | 871.0 | 875.0 | 1231.0 | 0.7108 | 0.7076 | | 0.0 | 32.0 | 1376 | 1.6103 | 0.0056 | 7596.7626 | 5265.6746 | 2618.0 | 3270.0 | 0.8006 | 2599.0 | 0.7948 | 1716.0 | 1740.0 | 2026.0 | 0.8588 | 0.8470 | 875.0 | 878.0 | 1231.0 | 0.7132 | 0.7108 | | 0.0 | 33.0 | 1419 | 1.6099 | 0.0056 | 7594.6633 | 5264.2194 | 2612.0 | 3270.0 | 0.7988 | 2594.0 | 0.7933 | 1715.0 | 1737.0 | 2026.0 | 0.8574 | 0.8465 | 871.0 | 875.0 | 1231.0 | 0.7108 | 0.7076 | | 0.0 | 34.0 | 1462 | 1.6107 | 0.0056 | 7598.6742 | 5266.9996 | 2616.0 | 3270.0 | 0.8 | 2597.0 | 0.7942 | 1716.0 | 1738.0 | 2026.0 | 0.8578 | 0.8470 | 873.0 | 878.0 | 1231.0 | 0.7132 | 0.7092 | | 0.0 | 35.0 | 1505 | 1.6082 | 0.0056 | 7586.7298 | 5258.7204 | 2617.0 | 3270.0 | 0.8003 | 2601.0 | 0.7954 | 1718.0 | 1738.0 | 2026.0 | 0.8578 | 0.8480 | 874.0 | 879.0 | 1231.0 | 0.7141 | 0.7100 | | 0.0 | 36.0 | 1548 | 1.6120 | 0.0056 | 7604.7402 | 5271.2042 | 2617.0 | 3270.0 | 0.8003 | 2601.0 | 0.7954 | 1718.0 | 1738.0 | 2026.0 | 0.8578 | 0.8480 | 875.0 | 879.0 | 1231.0 | 0.7141 | 0.7108 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
kjn96/andrea
kjn96
2025-08-19T06:30:48Z
0
0
diffusers
[ "diffusers", "flux", "lora", "replicate", "text-to-image", "en", "base_model:black-forest-labs/FLUX.1-dev", "base_model:adapter:black-forest-labs/FLUX.1-dev", "license:other", "region:us" ]
text-to-image
2025-08-19T06:06:49Z
--- license: other license_name: flux-1-dev-non-commercial-license license_link: https://huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md language: - en tags: - flux - diffusers - lora - replicate base_model: "black-forest-labs/FLUX.1-dev" pipeline_tag: text-to-image # widget: # - text: >- # prompt # output: # url: https://... instance_prompt: Andrea --- # Andrea <Gallery /> ## About this LoRA This is a [LoRA](https://replicate.com/docs/guides/working-with-loras) for the FLUX.1-dev text-to-image model. It can be used with diffusers or ComfyUI. It was trained on [Replicate](https://replicate.com/) using AI toolkit: https://replicate.com/ostris/flux-dev-lora-trainer/train ## Trigger words You should use `Andrea` to trigger the image generation. ## Run this LoRA with an API using Replicate ```py import replicate input = { "prompt": "Andrea", "lora_weights": "https://huggingface.co/kjn96/andrea/resolve/main/lora.safetensors" } output = replicate.run( "black-forest-labs/flux-dev-lora", input=input ) for index, item in enumerate(output): with open(f"output_{index}.webp", "wb") as file: file.write(item.read()) ``` ## Use it with the [🧨 diffusers library](https://github.com/huggingface/diffusers) ```py from diffusers import AutoPipelineForText2Image import torch pipeline = AutoPipelineForText2Image.from_pretrained('black-forest-labs/FLUX.1-dev', torch_dtype=torch.float16).to('cuda') pipeline.load_lora_weights('kjn96/andrea', weight_name='lora.safetensors') image = pipeline('Andrea').images[0] ``` For more details, including weighting, merging and fusing LoRAs, check the [documentation on loading LoRAs in diffusers](https://huggingface.co/docs/diffusers/main/en/using-diffusers/loading_adapters) ## Training details - Steps: 1000 - Learning rate: 0.0004 - LoRA rank: 16 ## Contribute your own examples You can use the [community tab](https://huggingface.co/kjn96/andrea/discussions) to add images that show off what you’ve made with this LoRA.
harikrushna2272/SmolGRPO-135M
harikrushna2272
2025-08-19T06:28:48Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "GRPO", "Reasoning-Course", "conversational", "arxiv:1910.09700", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:28:14Z
--- library_name: transformers tags: - GRPO - Reasoning-Course --- # Model Card for Model ID <!-- Provide a quick summary of what the model is/does. --> ## Model Details ### Model Description <!-- Provide a longer summary of what this model is. --> This is the model card of a 🤗 transformers model that has been pushed on the Hub. This model card has been automatically generated. - **Developed by:** [More Information Needed] - **Funded by [optional]:** [More Information Needed] - **Shared by [optional]:** [More Information Needed] - **Model type:** [More Information Needed] - **Language(s) (NLP):** [More Information Needed] - **License:** [More Information Needed] - **Finetuned from model [optional]:** [More Information Needed] ### Model Sources [optional] <!-- Provide the basic links for the model. --> - **Repository:** [More Information Needed] - **Paper [optional]:** [More Information Needed] - **Demo [optional]:** [More Information Needed] ## Uses <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. --> ### Direct Use <!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. --> [More Information Needed] ### Downstream Use [optional] <!-- This section is for the model use when fine-tuned for a task, or when plugged into a larger ecosystem/app --> [More Information Needed] ### Out-of-Scope Use <!-- This section addresses misuse, malicious use, and uses that the model will not work well for. --> [More Information Needed] ## Bias, Risks, and Limitations <!-- This section is meant to convey both technical and sociotechnical limitations. --> [More Information Needed] ### Recommendations <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. --> Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. ## How to Get Started with the Model Use the code below to get started with the model. [More Information Needed] ## Training Details ### Training Data <!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. --> [More Information Needed] ### Training Procedure <!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. --> #### Preprocessing [optional] [More Information Needed] #### Training Hyperparameters - **Training regime:** [More Information Needed] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision --> #### Speeds, Sizes, Times [optional] <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. --> [More Information Needed] ## Evaluation <!-- This section describes the evaluation protocols and provides the results. --> ### Testing Data, Factors & Metrics #### Testing Data <!-- This should link to a Dataset Card if possible. --> [More Information Needed] #### Factors <!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. --> [More Information Needed] #### Metrics <!-- These are the evaluation metrics being used, ideally with a description of why. --> [More Information Needed] ### Results [More Information Needed] #### Summary ## Model Examination [optional] <!-- Relevant interpretability work for the model goes here --> [More Information Needed] ## Environmental Impact <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly --> Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700). - **Hardware Type:** [More Information Needed] - **Hours used:** [More Information Needed] - **Cloud Provider:** [More Information Needed] - **Compute Region:** [More Information Needed] - **Carbon Emitted:** [More Information Needed] ## Technical Specifications [optional] ### Model Architecture and Objective [More Information Needed] ### Compute Infrastructure [More Information Needed] #### Hardware [More Information Needed] #### Software [More Information Needed] ## Citation [optional] <!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. --> **BibTeX:** [More Information Needed] **APA:** [More Information Needed] ## Glossary [optional] <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. --> [More Information Needed] ## More Information [optional] [More Information Needed] ## Model Card Authors [optional] [More Information Needed] ## Model Card Contact [More Information Needed]
hwang2006/finetuned-korean-gpt-oss-20b
hwang2006
2025-08-19T06:27:35Z
0
0
peft
[ "peft", "safetensors", "unsloth", "lora", "korean", "education", "textbook", "gpt-oss", "한국어", "교육", "파인튜닝", "text-generation", "conversational", "ko", "dataset:maywell/korean_textbooks", "base_model:unsloth/gpt-oss-20b", "base_model:adapter:unsloth/gpt-oss-20b", "license:apache-2.0", "region:us" ]
text-generation
2025-08-19T06:27:31Z
--- license: apache-2.0 base_model: unsloth/gpt-oss-20b tags: - unsloth - lora - korean - education - textbook - gpt-oss - 한국어 - 교육 - 파인튜닝 language: - ko datasets: - maywell/korean_textbooks library_name: peft pipeline_tag: text-generation --- # 한국어 교육 자료 파인튜닝 모델 (Korean Textbook Fine-tuned Model) ## 📚 모델 소개 이 모델은 **unsloth/gpt-oss-20b**를 기반으로 **maywell/korean_textbooks** 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다. LoRA(Low-Rank Adaptation) 기술을 사용하여 효율적으로 학습되었으며, 한국어 교육 콘텐츠 생성에 특화되어 있습니다. ## 🎯 주요 특징 - **베이스 모델**: unsloth/gpt-oss-20b (20B 파라미터) - **훈련 방법**: LoRA (Low-Rank Adaptation) - **특화 분야**: 한국어 교육 콘텐츠 생성 - **데이터셋**: maywell/korean_textbooks - **언어**: 한국어 (Korean) ## 🚀 사용 방법 ### 모델 로드 ```python from transformers import AutoModelForCausalLM, AutoTokenizer from peft import PeftModel import torch # 베이스 모델 로드 base_model = AutoModelForCausalLM.from_pretrained( "unsloth/gpt-oss-20b", torch_dtype=torch.float16, device_map="auto", trust_remote_code=True ) # LoRA 어댑터 로드 model = PeftModel.from_pretrained(base_model, "hwang2006/finetuned-korean-gpt-oss-20b") # 토크나이저 로드 tokenizer = AutoTokenizer.from_pretrained("hwang2006/finetuned-korean-gpt-oss-20b") ``` ### 사용 예시 ```python messages = [ {"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."}, {"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."} ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, return_tensors="pt", return_dict=True ).to(model.device) with torch.no_grad(): outputs = model.generate( **inputs, max_new_tokens=512, do_sample=True, temperature=0.7, top_p=0.9, pad_token_id=tokenizer.eos_token_id ) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response) ``` ## 📊 훈련 정보 - **베이스 모델**: unsloth/gpt-oss-20b-unsloth-bnb-4bit - **훈련 스텝**: 30 steps - **LoRA Rank**: 8 - **LoRA Alpha**: 16 - **타겟 모듈**: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj - **데이터셋**: maywell/korean_textbooks ## 🎓 활용 분야 이 모델은 다음 분야에서 우수한 성능을 보입니다: ### 수학 (Mathematics) - 기초 수학 개념 설명 - 대수, 기하, 미적분 문제 해설 - 수학 공식의 직관적 이해 ### 과학 (Science) - 물리, 화학, 생물학 원리 설명 - 실험 과정 및 결과 해석 - 과학적 현상의 이해 ### 언어 (Language) - 한국어 문법 및 어휘 설명 - 문학 작품 분석 및 해석 - 글쓰기 기법 안내 ### 사회 (Social Studies) - 역사적 사건 및 인물 설명 - 지리적 개념 및 현상 - 사회 제도 및 문화 이해 ## 💻 시스템 요구사항 - **GPU 메모리**: 최소 16GB (권장 24GB+) - **시스템 RAM**: 최소 16GB - **Python**: 3.8+ - **주요 라이브러리**: transformers, peft, torch ## ⚠️ 주의사항 1. **교육 목적 특화**: 이 모델은 교육 콘텐츠 생성에 최적화되어 있습니다. 2. **한국어 중심**: 한국어 외의 언어에서는 성능이 제한적일 수 있습니다. 3. **사실 확인 필요**: 생성된 내용은 항상 검토하고 사실 확인이 필요합니다. 4. **윤리적 사용**: 교육적이고 건전한 목적으로만 사용해주세요. ## 🔗 관련 링크 - **베이스 모델**: [unsloth/gpt-oss-20b](https://huggingface.co/unsloth/gpt-oss-20b) - **데이터셋**: [maywell/korean_textbooks](https://huggingface.co/datasets/maywell/korean_textbooks) ## 📜 라이선스 이 모델은 베이스 모델인 unsloth/gpt-oss-20b의 라이선스를 따릅니다.
Medved444/blockassist-bc-bellowing_finicky_manatee_1755583519
Medved444
2025-08-19T06:24:38Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "bellowing finicky manatee", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:24:24Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - bellowing finicky manatee --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
quantumxnode/blockassist-bc-dormant_peckish_seahorse_1755582934
quantumxnode
2025-08-19T06:21:45Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "dormant peckish seahorse", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:21:41Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - dormant peckish seahorse --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
IvanJAjebu/blockassist-bc-thorny_slender_capybara_1755584377
IvanJAjebu
2025-08-19T06:21:20Z
0
0
null
[ "gensyn", "blockassist", "gensyn-blockassist", "minecraft", "thorny slender capybara", "arxiv:2504.07091", "region:us" ]
null
2025-08-19T06:20:56Z
--- tags: - gensyn - blockassist - gensyn-blockassist - minecraft - thorny slender capybara --- # Gensyn BlockAssist Gensyn's BlockAssist is a distributed extension of the paper [AssistanceZero: Scalably Solving Assistance Games](https://arxiv.org/abs/2504.07091).
donoway/ARC-Easy_Llama-3.2-1B-blvojtf1
donoway
2025-08-19T06:19:09Z
0
0
transformers
[ "transformers", "safetensors", "llama", "text-generation", "generated_from_trainer", "base_model:meta-llama/Llama-3.2-1B", "base_model:finetune:meta-llama/Llama-3.2-1B", "license:llama3.2", "autotrain_compatible", "text-generation-inference", "endpoints_compatible", "region:us" ]
text-generation
2025-08-19T06:07:11Z
--- library_name: transformers license: llama3.2 base_model: meta-llama/Llama-3.2-1B tags: - generated_from_trainer metrics: - accuracy model-index: - name: ARC-Easy_Llama-3.2-1B-blvojtf1 results: [] --- <!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. --> # ARC-Easy_Llama-3.2-1B-blvojtf1 This model is a fine-tuned version of [meta-llama/Llama-3.2-1B](https://huggingface.co/meta-llama/Llama-3.2-1B) on an unknown dataset. It achieves the following results on the evaluation set: - Loss: 2.6796 - Model Preparation Time: 0.006 - Mdl: 2203.5395 - Accumulated Loss: 1527.3772 - Correct Preds: 389.0 - Total Preds: 570.0 - Accuracy: 0.6825 - Correct Gen Preds: 327.0 - Gen Accuracy: 0.5737 - Correct Gen Preds 32: 62.0 - Correct Preds 32: 98.0 - Total Labels 32: 158.0 - Accuracy 32: 0.6203 - Gen Accuracy 32: 0.3924 - Correct Gen Preds 33: 95.0 - Correct Preds 33: 105.0 - Total Labels 33: 152.0 - Accuracy 33: 0.6908 - Gen Accuracy 33: 0.625 - Correct Gen Preds 34: 100.0 - Correct Preds 34: 108.0 - Total Labels 34: 142.0 - Accuracy 34: 0.7606 - Gen Accuracy 34: 0.7042 - Correct Gen Preds 35: 70.0 - Correct Preds 35: 78.0 - Total Labels 35: 118.0 - Accuracy 35: 0.6610 - Gen Accuracy 35: 0.5932 - Correct Gen Preds 36: 0.0 - Correct Preds 36: 0.0 - Total Labels 36: 0.0 - Accuracy 36: 0.0 - Gen Accuracy 36: 0.0 ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 2e-05 - train_batch_size: 64 - eval_batch_size: 112 - seed: 42 - optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.01 - num_epochs: 100 ### Training results | Training Loss | Epoch | Step | Validation Loss | Model Preparation Time | Mdl | Accumulated Loss | Correct Preds | Total Preds | Accuracy | Correct Gen Preds | Gen Accuracy | Correct Gen Preds 32 | Correct Preds 32 | Total Labels 32 | Accuracy 32 | Gen Accuracy 32 | Correct Gen Preds 33 | Correct Preds 33 | Total Labels 33 | Accuracy 33 | Gen Accuracy 33 | Correct Gen Preds 34 | Correct Preds 34 | Total Labels 34 | Accuracy 34 | Gen Accuracy 34 | Correct Gen Preds 35 | Correct Preds 35 | Total Labels 35 | Accuracy 35 | Gen Accuracy 35 | Correct Gen Preds 36 | Correct Preds 36 | Total Labels 36 | Accuracy 36 | Gen Accuracy 36 | |:-------------:|:-----:|:----:|:---------------:|:----------------------:|:---------:|:----------------:|:-------------:|:-----------:|:--------:|:-----------------:|:------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:|:--------------------:|:----------------:|:---------------:|:-----------:|:---------------:| | No log | 0 | 0 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.3822 | 1.0 | 1 | 1.5354 | 0.006 | 1262.6022 | 875.1692 | 172.0 | 570.0 | 0.3018 | 170.0 | 0.2982 | 154.0 | 154.0 | 158.0 | 0.9747 | 0.9747 | 0.0 | 0.0 | 152.0 | 0.0 | 0.0 | 15.0 | 17.0 | 142.0 | 0.1197 | 0.1056 | 1.0 | 1.0 | 118.0 | 0.0085 | 0.0085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 1.3877 | 2.0 | 2 | 2.3794 | 0.006 | 1956.6844 | 1356.2703 | 153.0 | 570.0 | 0.2684 | 153.0 | 0.2684 | 0.0 | 0.0 | 158.0 | 0.0 | 0.0 | 152.0 | 152.0 | 152.0 | 1.0 | 1.0 | 1.0 | 1.0 | 142.0 | 0.0070 | 0.0070 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 2.1356 | 3.0 | 3 | 1.4237 | 0.006 | 1170.7407 | 811.4956 | 203.0 | 570.0 | 0.3561 | 203.0 | 0.3561 | 89.0 | 89.0 | 158.0 | 0.5633 | 0.5633 | 114.0 | 114.0 | 152.0 | 0.75 | 0.75 | 0.0 | 0.0 | 142.0 | 0.0 | 0.0 | 0.0 | 0.0 | 118.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.8074 | 4.0 | 4 | 1.6417 | 0.006 | 1350.0078 | 935.7541 | 216.0 | 570.0 | 0.3789 | 216.0 | 0.3789 | 155.0 | 155.0 | 158.0 | 0.9810 | 0.9810 | 6.0 | 6.0 | 152.0 | 0.0395 | 0.0395 | 38.0 | 38.0 | 142.0 | 0.2676 | 0.2676 | 17.0 | 17.0 | 118.0 | 0.1441 | 0.1441 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.3151 | 5.0 | 5 | 1.1711 | 0.006 | 963.0449 | 667.5319 | 358.0 | 570.0 | 0.6281 | 351.0 | 0.6158 | 105.0 | 108.0 | 158.0 | 0.6835 | 0.6646 | 68.0 | 71.0 | 152.0 | 0.4671 | 0.4474 | 100.0 | 100.0 | 142.0 | 0.7042 | 0.7042 | 78.0 | 79.0 | 118.0 | 0.6695 | 0.6610 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0313 | 6.0 | 6 | 1.8008 | 0.006 | 1480.8473 | 1026.4451 | 384.0 | 570.0 | 0.6737 | 333.0 | 0.5842 | 68.0 | 99.0 | 158.0 | 0.6266 | 0.4304 | 91.0 | 101.0 | 152.0 | 0.6645 | 0.5987 | 101.0 | 108.0 | 142.0 | 0.7606 | 0.7113 | 73.0 | 76.0 | 118.0 | 0.6441 | 0.6186 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0007 | 7.0 | 7 | 2.6796 | 0.006 | 2203.5395 | 1527.3772 | 389.0 | 570.0 | 0.6825 | 327.0 | 0.5737 | 62.0 | 98.0 | 158.0 | 0.6203 | 0.3924 | 95.0 | 105.0 | 152.0 | 0.6908 | 0.625 | 100.0 | 108.0 | 142.0 | 0.7606 | 0.7042 | 70.0 | 78.0 | 118.0 | 0.6610 | 0.5932 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 8.0 | 8 | 3.2573 | 0.006 | 2678.6154 | 1856.6747 | 382.0 | 570.0 | 0.6702 | 317.0 | 0.5561 | 56.0 | 98.0 | 158.0 | 0.6203 | 0.3544 | 99.0 | 106.0 | 152.0 | 0.6974 | 0.6513 | 95.0 | 104.0 | 142.0 | 0.7324 | 0.6690 | 67.0 | 74.0 | 118.0 | 0.6271 | 0.5678 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 9.0 | 9 | 3.6049 | 0.006 | 2964.4270 | 2054.7842 | 378.0 | 570.0 | 0.6632 | 308.0 | 0.5404 | 51.0 | 95.0 | 158.0 | 0.6013 | 0.3228 | 101.0 | 106.0 | 152.0 | 0.6974 | 0.6645 | 91.0 | 103.0 | 142.0 | 0.7254 | 0.6408 | 65.0 | 74.0 | 118.0 | 0.6271 | 0.5508 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 10.0 | 10 | 3.8133 | 0.006 | 3135.8227 | 2173.5867 | 376.0 | 570.0 | 0.6596 | 300.0 | 0.5263 | 46.0 | 94.0 | 158.0 | 0.5949 | 0.2911 | 102.0 | 108.0 | 152.0 | 0.7105 | 0.6711 | 88.0 | 103.0 | 142.0 | 0.7254 | 0.6197 | 64.0 | 71.0 | 118.0 | 0.6017 | 0.5424 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 11.0 | 11 | 3.9897 | 0.006 | 3280.8607 | 2274.1194 | 374.0 | 570.0 | 0.6561 | 292.0 | 0.5123 | 43.0 | 94.0 | 158.0 | 0.5949 | 0.2722 | 103.0 | 109.0 | 152.0 | 0.7171 | 0.6776 | 85.0 | 102.0 | 142.0 | 0.7183 | 0.5986 | 61.0 | 69.0 | 118.0 | 0.5847 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 12.0 | 12 | 4.0979 | 0.006 | 3369.8531 | 2335.8042 | 371.0 | 570.0 | 0.6509 | 283.0 | 0.4965 | 39.0 | 93.0 | 158.0 | 0.5886 | 0.2468 | 101.0 | 107.0 | 152.0 | 0.7039 | 0.6645 | 81.0 | 103.0 | 142.0 | 0.7254 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 13.0 | 13 | 4.1798 | 0.006 | 3437.2348 | 2382.5096 | 374.0 | 570.0 | 0.6561 | 284.0 | 0.4982 | 39.0 | 94.0 | 158.0 | 0.5949 | 0.2468 | 101.0 | 109.0 | 152.0 | 0.7171 | 0.6645 | 82.0 | 103.0 | 142.0 | 0.7254 | 0.5775 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 14.0 | 14 | 4.2962 | 0.006 | 3532.8950 | 2448.8162 | 370.0 | 570.0 | 0.6491 | 281.0 | 0.4930 | 38.0 | 91.0 | 158.0 | 0.5759 | 0.2405 | 100.0 | 109.0 | 152.0 | 0.7171 | 0.6579 | 81.0 | 102.0 | 142.0 | 0.7183 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 15.0 | 15 | 4.3080 | 0.006 | 3542.6472 | 2455.5760 | 371.0 | 570.0 | 0.6509 | 281.0 | 0.4930 | 37.0 | 91.0 | 158.0 | 0.5759 | 0.2342 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 16.0 | 16 | 4.3532 | 0.006 | 3579.7884 | 2481.3203 | 372.0 | 570.0 | 0.6526 | 281.0 | 0.4930 | 36.0 | 92.0 | 158.0 | 0.5823 | 0.2278 | 100.0 | 109.0 | 152.0 | 0.7171 | 0.6579 | 83.0 | 103.0 | 142.0 | 0.7254 | 0.5845 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 17.0 | 17 | 4.3767 | 0.006 | 3599.1354 | 2494.7306 | 372.0 | 570.0 | 0.6526 | 280.0 | 0.4912 | 35.0 | 92.0 | 158.0 | 0.5823 | 0.2215 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 18.0 | 18 | 4.4285 | 0.006 | 3641.7234 | 2524.2503 | 371.0 | 570.0 | 0.6509 | 278.0 | 0.4877 | 36.0 | 91.0 | 158.0 | 0.5759 | 0.2278 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 81.0 | 102.0 | 142.0 | 0.7183 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 19.0 | 19 | 4.4736 | 0.006 | 3678.7926 | 2549.9447 | 371.0 | 570.0 | 0.6509 | 277.0 | 0.4860 | 35.0 | 91.0 | 158.0 | 0.5759 | 0.2215 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 80.0 | 102.0 | 142.0 | 0.7183 | 0.5634 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 20.0 | 20 | 4.4894 | 0.006 | 3691.8132 | 2558.9699 | 370.0 | 570.0 | 0.6491 | 276.0 | 0.4842 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 81.0 | 102.0 | 142.0 | 0.7183 | 0.5704 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 21.0 | 21 | 4.4970 | 0.006 | 3698.0504 | 2563.2932 | 371.0 | 570.0 | 0.6509 | 277.0 | 0.4860 | 35.0 | 91.0 | 158.0 | 0.5759 | 0.2215 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 82.0 | 102.0 | 142.0 | 0.7183 | 0.5775 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 22.0 | 22 | 4.5302 | 0.006 | 3725.3769 | 2582.2345 | 369.0 | 570.0 | 0.6474 | 276.0 | 0.4842 | 34.0 | 88.0 | 158.0 | 0.5570 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 82.0 | 103.0 | 142.0 | 0.7254 | 0.5775 | 61.0 | 68.0 | 118.0 | 0.5763 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 23.0 | 23 | 4.5179 | 0.006 | 3715.2392 | 2575.2076 | 367.0 | 570.0 | 0.6439 | 277.0 | 0.4860 | 35.0 | 89.0 | 158.0 | 0.5633 | 0.2215 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 82.0 | 102.0 | 142.0 | 0.7183 | 0.5775 | 60.0 | 66.0 | 118.0 | 0.5593 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 24.0 | 24 | 4.5215 | 0.006 | 3718.1928 | 2577.2548 | 371.0 | 570.0 | 0.6509 | 277.0 | 0.4860 | 34.0 | 91.0 | 158.0 | 0.5759 | 0.2152 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 84.0 | 102.0 | 142.0 | 0.7183 | 0.5915 | 61.0 | 68.0 | 118.0 | 0.5763 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 25.0 | 25 | 4.5525 | 0.006 | 3743.7136 | 2594.9445 | 367.0 | 570.0 | 0.6439 | 278.0 | 0.4877 | 34.0 | 89.0 | 158.0 | 0.5633 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 84.0 | 102.0 | 142.0 | 0.7183 | 0.5915 | 61.0 | 66.0 | 118.0 | 0.5593 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 26.0 | 26 | 4.5539 | 0.006 | 3744.8645 | 2595.7423 | 369.0 | 570.0 | 0.6474 | 278.0 | 0.4877 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 61.0 | 67.0 | 118.0 | 0.5678 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 27.0 | 27 | 4.5578 | 0.006 | 3748.0692 | 2597.9636 | 368.0 | 570.0 | 0.6456 | 277.0 | 0.4860 | 35.0 | 89.0 | 158.0 | 0.5633 | 0.2215 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 84.0 | 103.0 | 142.0 | 0.7254 | 0.5915 | 60.0 | 66.0 | 118.0 | 0.5593 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 28.0 | 28 | 4.5636 | 0.006 | 3752.8202 | 2601.2567 | 368.0 | 570.0 | 0.6456 | 279.0 | 0.4895 | 36.0 | 90.0 | 158.0 | 0.5696 | 0.2278 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 83.0 | 102.0 | 142.0 | 0.7183 | 0.5845 | 61.0 | 66.0 | 118.0 | 0.5593 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 29.0 | 29 | 4.5600 | 0.006 | 3749.8841 | 2599.2216 | 369.0 | 570.0 | 0.6474 | 278.0 | 0.4877 | 34.0 | 89.0 | 158.0 | 0.5633 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 84.0 | 103.0 | 142.0 | 0.7254 | 0.5915 | 61.0 | 67.0 | 118.0 | 0.5678 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 30.0 | 30 | 4.5483 | 0.006 | 3740.2175 | 2592.5212 | 370.0 | 570.0 | 0.6491 | 277.0 | 0.4860 | 34.0 | 90.0 | 158.0 | 0.5696 | 0.2152 | 98.0 | 110.0 | 152.0 | 0.7237 | 0.6447 | 85.0 | 103.0 | 142.0 | 0.7254 | 0.5986 | 60.0 | 67.0 | 118.0 | 0.5678 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 31.0 | 31 | 4.5859 | 0.006 | 3771.1699 | 2613.9758 | 369.0 | 570.0 | 0.6474 | 277.0 | 0.4860 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 82.0 | 103.0 | 142.0 | 0.7254 | 0.5775 | 61.0 | 66.0 | 118.0 | 0.5593 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 32.0 | 32 | 4.5906 | 0.006 | 3775.0048 | 2616.6339 | 367.0 | 570.0 | 0.6439 | 278.0 | 0.4877 | 34.0 | 89.0 | 158.0 | 0.5633 | 0.2152 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 86.0 | 103.0 | 142.0 | 0.7254 | 0.6056 | 59.0 | 65.0 | 118.0 | 0.5508 | 0.5 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 33.0 | 33 | 4.5403 | 0.006 | 3733.6585 | 2587.9749 | 373.0 | 570.0 | 0.6544 | 282.0 | 0.4947 | 35.0 | 92.0 | 158.0 | 0.5823 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 86.0 | 103.0 | 142.0 | 0.7254 | 0.6056 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 34.0 | 34 | 4.5964 | 0.006 | 3779.8051 | 2619.9612 | 368.0 | 570.0 | 0.6456 | 278.0 | 0.4877 | 35.0 | 90.0 | 158.0 | 0.5696 | 0.2215 | 99.0 | 110.0 | 152.0 | 0.7237 | 0.6513 | 84.0 | 101.0 | 142.0 | 0.7113 | 0.5915 | 60.0 | 67.0 | 118.0 | 0.5678 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 35.0 | 35 | 4.5792 | 0.006 | 3765.6775 | 2610.1687 | 369.0 | 570.0 | 0.6474 | 279.0 | 0.4895 | 34.0 | 91.0 | 158.0 | 0.5759 | 0.2152 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 85.0 | 103.0 | 142.0 | 0.7254 | 0.5986 | 60.0 | 65.0 | 118.0 | 0.5508 | 0.5085 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 36.0 | 36 | 4.5957 | 0.006 | 3779.2287 | 2619.5617 | 371.0 | 570.0 | 0.6509 | 283.0 | 0.4965 | 36.0 | 91.0 | 158.0 | 0.5759 | 0.2278 | 100.0 | 110.0 | 152.0 | 0.7237 | 0.6579 | 85.0 | 102.0 | 142.0 | 0.7183 | 0.5986 | 62.0 | 68.0 | 118.0 | 0.5763 | 0.5254 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | | 0.0 | 37.0 | 37 | 4.5726 | 0.006 | 3760.2223 | 2606.3875 | 370.0 | 570.0 | 0.6491 | 283.0 | 0.4965 | 36.0 | 90.0 | 158.0 | 0.5696 | 0.2278 | 101.0 | 110.0 | 152.0 | 0.7237 | 0.6645 | 85.0 | 103.0 | 142.0 | 0.7254 | 0.5986 | 61.0 | 67.0 | 118.0 | 0.5678 | 0.5169 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | ### Framework versions - Transformers 4.51.3 - Pytorch 2.6.0+cu124 - Datasets 3.5.0 - Tokenizers 0.21.1
KCS97/grey_sloth_plushie
KCS97
2025-08-19T06:18:25Z
0
0
diffusers
[ "diffusers", "tensorboard", "safetensors", "text-to-image", "dreambooth", "diffusers-training", "stable-diffusion", "stable-diffusion-diffusers", "base_model:stable-diffusion-v1-5/stable-diffusion-v1-5", "base_model:finetune:stable-diffusion-v1-5/stable-diffusion-v1-5", "license:creativeml-openrail-m", "autotrain_compatible", "endpoints_compatible", "diffusers:StableDiffusionPipeline", "region:us" ]
text-to-image
2025-08-19T06:08:21Z
--- base_model: stable-diffusion-v1-5/stable-diffusion-v1-5 library_name: diffusers license: creativeml-openrail-m inference: true instance_prompt: a photo of sks plushie tags: - text-to-image - dreambooth - diffusers-training - stable-diffusion - stable-diffusion-diffusers --- <!-- This model card has been generated automatically according to the information the training script had access to. You should probably proofread and complete it, then remove this comment. --> # DreamBooth - KCS97/grey_sloth_plushie This is a dreambooth model derived from stable-diffusion-v1-5/stable-diffusion-v1-5. The weights were trained on a photo of sks plushie using [DreamBooth](https://dreambooth.github.io/). You can find some example images in the following. DreamBooth for the text encoder was enabled: False. ## Intended uses & limitations #### How to use ```python # TODO: add an example code snippet for running this diffusion pipeline ``` #### Limitations and bias [TODO: provide examples of latent issues and potential remediations] ## Training details [TODO: describe the data used to train the model]
subsectmusic/qwriko4b-64k-2507-instruct
subsectmusic
2025-08-19T06:15:30Z
0
0
transformers
[ "transformers", "gguf", "qwen3", "text-generation-inference", "unsloth", "en", "license:apache-2.0", "endpoints_compatible", "region:us", "conversational" ]
null
2025-08-19T05:07:14Z
--- base_model: unsloth/qwen3-4b-instruct-2507-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - qwen3 - gguf license: apache-2.0 language: - en --- # Uploaded model - **Developed by:** subsectmusic - **License:** apache-2.0 - **Finetuned from model :** unsloth/qwen3-4b-instruct-2507-unsloth-bnb-4bit This qwen3 model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)