A newer version of this model is available: Gopu-poss/gopu-agent-2k-fdf

🤖 agentV1 - Intelligence Artificielle Avancée

agentV1 est un modèle d'intelligence artificielle de pointe développé par Mauricio Mangituka pour gopuAI. Basé sur Microsoft Phi-3-mini-4k-instruct, ce modèle combine performance optimale et efficacité mémoire.

Version License Hugging Face GitHub

🚀 Caractéristiques

  • 🧠 Modèle de base: Microsoft Phi-3-mini-4k-instruct
  • 💾 Taille compacte: ~2-3 Go seulement
  • ⚡ Performances: Excellentes capacités de raisonnement
  • 🌍 Multilingue: Support du français et de l'anglais
  • 🔧 Optimisé: Quantification et optimisation mémoire

📋 Table des Matières

🛠 Installation

Prérequis

  • Python 3.8+
  • PyTorch 2.0+
  • Transformers 4.25+

Installation des dépendances

pip install transformers torch accelerate

Installation directe

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("gopu-poss/agent")
model = AutoModelForCausalLM.from_pretrained(
    "gopu-poss/agent",
    torch_dtype=torch.float16,
    device_map="auto"
)

🚀 Utilisation Rapide

Code minimal

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# Chargement du modèle
tokenizer = AutoTokenizer.from_pretrained("gopu-poss/agent")
model = AutoModelForCausalLM.from_pretrained(
    "gopu-poss/agent",
    torch_dtype=torch.float16,
    device_map="auto"
)

# Génération de texte
prompt = "Explique-moi comment fonctionne l'IA générative"
inputs = tokenizer(prompt, return_tensors="pt")

with torch.no_grad():
    outputs = model.generate(
        **inputs,
        max_new_tokens=200,
        temperature=0.7,
        do_sample=True
    )

response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

🔌 API Complète

Classe AgentV1

class AgentV1:
    def __init__(self):
        self.tokenizer = AutoTokenizer.from_pretrained("gopu-poss/agent")
        self.model = AutoModelForCausalLM.from_pretrained(
            "gopu-poss/agent",
            torch_dtype=torch.float16,
            device_map="auto"
        )
    
    def ask(self, question, max_tokens=200, temperature=0.7):
        """Pose une question à l'agent"""
        inputs = self.tokenizer(question, return_tensors="pt")
        
        with torch.no_grad():
            outputs = self.model.generate(
                **inputs,
                max_new_tokens=max_tokens,
                temperature=temperature,
                do_sample=True,
                pad_token_id=self.tokenizer.eos_token_id
            )
        
        return self.tokenizer.decode(outputs[0], skip_special_tokens=True)
    
    def batch_ask(self, questions, max_tokens=200):
        """Pose plusieurs questions en lot"""
        responses = []
        for question in questions:
            responses.append(self.ask(question, max_tokens))
        return responses

📚 Exemples

Conversation basique

agent = AgentV1()

# Question simple
response = agent.ask("Bonjour, qui es-tu ?")
print(response)

Génération créative

story = agent.ask(
    "Écris une courte histoire sur un robot qui apprend l'émotion",
    max_tokens=300,
    temperature=0.8
)

Assistance technique

code_help = agent.ask(
    "Explique-moi comment trier une liste en Python",
    max_tokens=150
)

Analyse de texte

analysis = agent.ask(
    "Résume les avantages de l'IA générative en 3 points",
    max_tokens=100
)

🏗 Architecture

Modèle de Base

· Architecture: Transformer-based · Paramètres: 3.8 milliards · Context Window: 4K tokens · Pré-entraînement: Texte multilingue

Optimisations

· Quantification: FP16 pour performance mémoire · Device Mapping: Chargement automatique GPU/CPU · Gestion mémoire: Optimisée pour usage efficace

🌐 Déploiement

Sur GPU local

model = AutoModelForCausalLM.from_pretrained(
    "gopu-poss/agent",
    torch_dtype=torch.float16,
    device_map="cuda:0"
)

Sur CPU

model = AutoModelForCausalLM.from_pretrained(
    "gopu-poss/agent",
    torch_dtype=torch.float32,
    device_map="cpu"
)

Avec Docker

FROM python:3.9-slim
RUN pip install transformers torch accelerate
COPY . /app
WORKDIR /app
CMD ["python", "app.py"]

📊 Performances

Métriques

· Vitesse d'inférence: ~50-100 tokens/seconde sur GPU · Utilisation mémoire: ~3-4 Go en FP16 · Latence: < 2 secondes pour 200 tokens

Cas d'Usage Recommandés

· ✅ Assistance conversationnelle · ✅ Génération de contenu · ✅ Réponse à questions · ✅ Analyse de texte · ✅ Aide à la programmation

🤝 Contribuer

Nous accueillons les contributions ! Voici comment participer :

  1. Fork le projet
  2. Clone votre fork
  3. Créez une branche (git checkout -b feature/AmazingFeature)
  4. Commit vos changements (git commit -m 'Add AmazingFeature')
  5. Push (git push origin feature/AmazingFeature)
  6. Ouvrez une Pull Request

Standards de Code

· Utilisez Black pour le formatage · Écrivez des docstrings complètes · Ajoutez des tests pour les nouvelles fonctionnalités

📝 License

Ce projet est sous licence MIT. Voir le fichier LICENSE pour plus de détails.

👨‍💻 Créateur

Mauricio Mangituka

· GitHub: @gopu-inc · Hugging Face: gopu-poss · Email: mauricio@example.com

🏢 Société

gopuAI - Innovation en Intelligence Artificielle Développement de solutions IA accessibles et performantes

🔗 Liens Importants

· 🤗 Hugging Face: gopu-poss/agent · 🐙 GitHub: gopu-inc/agentV1 · 📚 Documentation: Lien vers documentation · 🐛 Issues: GitHub Issues

📞 Support

· Questions techniques: Ouvrez une issue sur GitHub · Collaborations: Contactez-nous par email · Suggestions: Nous apprécions vos retours !


⭐ N'oubliez pas de donner une étoile au projet si vous l'aimez !

Développé avec ❤️ par Mauricio Mangituka pour gopuAI

```Fichier additionnel : requirements.txt
torch>=2.0.0
transformers>=4.25.0
accelerate>=0.20.0
numpy>=1.21.0
safetensors>=0.3.0

Fichier additionnel : setup.py

from setuptools import setup, find_packages

with open("README.md", "r", encoding="utf-8") as fh:
    long_description = fh.read()

setup(
    name="agentv1",
    version="1.0.0",
    author="Mauricio Mangituka",
    author_email="mauricio@example.com",
    description="AgentV1 - Modèle IA avancé par gopuAI",
    long_description=long_description,
    long_description_content_type="text/markdown",
    url="https://github.com/gopu-inc/agentV1",
    packages=find_packages(),
    classifiers=[
        "Development Status :: 4 - Beta",
        "Intended Audience :: Developers",
        "License :: OSI Approved :: MIT License",
        "Operating System :: OS Independent",
        "Programming Language :: Python :: 3",
        "Programming Language :: Python :: 3.8",
        "Programming Language :: Python :: 3.9",
        "Programming Language :: Python :: 3.10",
    ],
    python_requires=">=3.8",
    install_requires=[
        "torch>=2.0.0",
        "transformers>=4.25.0",
        "accelerate>=0.20.0",
    ],
)
Downloads last month
17
Safetensors
Model size
4B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 1 Ask for provider support

Model tree for Gopu-poss/agent

Finetuned
(459)
this model

Collection including Gopu-poss/agent

Evaluation results