Instructions to use Finisha-F-scratch/microBook with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use Finisha-F-scratch/microBook with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Finisha-F-scratch/microBook")# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("Finisha-F-scratch/microBook") model = AutoModelForCausalLM.from_pretrained("Finisha-F-scratch/microBook") - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use Finisha-F-scratch/microBook with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Finisha-F-scratch/microBook" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/microBook", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'Use Docker
docker model run hf.co/Finisha-F-scratch/microBook
- SGLang
How to use Finisha-F-scratch/microBook with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/microBook" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/microBook", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/microBook" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/microBook", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }' - Docker Model Runner
How to use Finisha-F-scratch/microBook with Docker Model Runner:
docker model run hf.co/Finisha-F-scratch/microBook
#. 📚 microBook : L'Expertise Littéraire
microBook est un modèle de langage ultra-spécialisé, conçu par Finisha (Clemylia) pour offrir une analyse et un ressenti critique sur les œuvres littéraires. Contrairement aux modèles "lisses" et génériques, il ne simule pas une opinion ; il puise dans une texture de langage brute pour exprimer une véritable "âme" de lecteur.
#. 🛠️ Fiche Technique
- Développeuse : Finisha (Clemylia), née en 2007.
- Architecture : Basée sur la philosophie from scratch de Finisha, optimisée pour la cohérence thématique.
- Taille : 32,7 millions de paramètres, offrant un équilibre parfait entre légèreté et précision narrative.
- Dataset : Entraîné sur des review de livres.
✨ Points Forts & Philosophie
- Anti-Lissage : Refuse les réponses formatées des IA industrielles pour privilégier une syntaxe originale et personnelle.
- Texture Narrative : Capable de générer des avis avec une structure propre.
- Spécialisation : Conçu spécifiquement pour donner son avis sur des livres connus, de la première saga aux romans contemporains.
#. 🚀 Exemples d'Utilisation (Inférence)
Le modèle se distingue par sa capacité à enchaîner les points de vue de manière fluide :
"Je suis plongée dans le premier roman. J’ai adoré ce très agréable et j’ai trouvé ce livre très très vite... Je me suis lancée et je suis laissée à lire les personnages de cet auteur."
.
- Open Source : Fidèle aux valeurs de sa créatrice, le modèle est publié sur Hugging Face pour la communauté.
Note de la créatrice : microBook n'est pas là pour être poli. Il est là pour avoir de la texture. Ne lui demandez pas de simuler, demandez-lui de lire.
- Downloads last month
- 34
