Wiki / Guides / Quick Start

Quick Start

En 5 minutos tendras tu primera conversacion con IA funcionando en Godot.

Prerequisitos

Asegurate de haber completado la instalacion del addon.

Ver guia de instalacion →
1

Paso 1: Abrir el Model Manager

En el toolbar de Godot, haz click en el boton "AI" y selecciona "AI Models".

Toolbar: [AI] AI Models

El boton AI aparece despues de activar el plugin y reiniciar el editor.

2

Paso 2: Buscar un Modelo

Haz click en "Browse HuggingFace" para explorar modelos disponibles.

💡

Recomendamos empezar con modelos pequenos (1-2GB) como Qwen2.5-1.5B o Phi-3-mini.

Busca por nombre o filtra por tamaño. Los modelos Q4_K_M ofrecen buen balance calidad/tamaño.

3

Paso 3: Descargar el Modelo

Selecciona el modelo en la lista y haz click en "Download Model".

El progreso de descarga aparece en el panel inferior. Puedes cancelar en cualquier momento.
Los modelos se guardan en user://models/ por defecto.
4

Paso 4: Cargar el Modelo

Una vez descargado, el estado cambia a "Ready". Haz click en "Load Model".

Status: ● Ready ● Loaded
Un modelo de 2GB necesita ~2.5GB de RAM disponible.
5

Paso 5: Probar Generacion

Ve a la pestaña "Generation" para probar el modelo.

System Prompt: Define el comportamiento de la IA
User Input: Tu mensaje para la IA
[Generate]: Inicia la generacion

La respuesta aparece en tiempo real (streaming) en el panel de salida.

💻 Uso desde Codigo

Tambien puedes usar AIService directamente desde GDScript.

GDScript
# Obtener el servicio de IA
var ai_service = AIService.get_singleton()

# Verificar si hay modelo cargado
if ai_service.is_model_loaded():
    # Obtener la interfaz LLM
    var llama = ai_service.get_llama()

    # Configurar parametros
    llama.set_temperature(0.7)
    llama.set_max_tokens(256)

    # Generar respuesta
    var prompt = "You are a helpful assistant.\n\nUser: Hello!\nAssistant:"
    var response = llama.generate(prompt)

    print(response)
else:
    push_warning("No hay modelo cargado")

🦙 Modelos Recomendados para Empezar

🐢

Pequeno (~1GB)

Rapido, bajo consumo de RAM. Ideal para pruebas.

Qwen2.5-0.5B, TinyLlama
🐎

Mediano (~2-4GB)

Mejor calidad de respuestas. Balance rendimiento/calidad.

Qwen2.5-1.5B, Phi-3-mini
🦍

Grande (~7GB+)

Maxima calidad. Requiere GPU recomendada.

Mistral-7B, Llama-3-8B

💡 Tips

Empieza con modelos pequenos para verificar que todo funciona.
Usa "Generate AI Preset" para crear configuraciones optimas automaticamente.
La temperatura controla creatividad: 0.1 = determinista, 1.0 = creativo.
Revisa la consola de Godot si algo falla - los errores aparecen ahi.

Siguientes Pasos