Documentación Técnica

Guía completa sobre modelos de IA, configuración y arquitectura del proyecto.

Comparativa de Modelos

Modelo Categoría RPM / TPM Privacidad
Gemini 1.5 Flash Cloud (Google) 15 / 1M Moderada (API)
Llama 3.2 8B Local (Ollama) Ilimitado (Hardware) Máxima (100% Offline)
Gemma 3 4B Local (Ollama) Ilimitado (Eficiente) Máxima (100% Offline)
GPT-4o (OpenAI) Cloud (Backup) Variable (Tier) Moderada (API)

* RPM: Request Per Minute | TPM: Tokens Per Minute

El Pipeline Industrial

1. Ingesta Híbrida (`IngestStep`)

Detecta automáticamente si la oferta es de InfoJobs o LinkedIn. Extrae el texto bruto y lo pre-procesa para la IA.

2. Enriquecimiento de GitHub (`EnrichmentStep`)

Analiza tus repositorios públicos. No solo lee el README, busca lenguajes y stacks utilizados para inyectar evidencias reales (Zero-Hallucination).

3. Modo Retoque V7 (`Human-in-the-Loop`)

El sistema separa la **IA** del **Renderizado** para permitir ajustes finos manuales.

1

Generación: Ejecuta python main.py. Se crea un resume_to_retouch.json en el output.

2

Edición: Abre el JSON y retoca la narrativa, logros o resumen técnico.

3

Render: Ejecuta python main.py --mode render --data ... para generar el PDF final.

// Estructura simplificada del retoque

{

"optimized_data": {

"summary": "Fullstack Engineer con enfoque en AWS...",

"experience": [ { "role": "Senior Engineer", ... } ]

}

}

Guía de Instalación

# 1. Clonar el repositorio

git clone https://github.com/Ro0oman/pythonCVGenerator.git

# 2. Instalar dependencias

pip install -r requirements.txt

# 3. Configurar API (Si usas Cloud)

echo "GEMINI_API_KEY=tu_key" > .env

# 4. Iniciar (Modo Local)

ollama run llama3.2

python main.py