Documentación Técnica
Guía completa sobre modelos de IA, configuración y arquitectura del proyecto.
Comparativa de Modelos
| Modelo | Categoría | RPM / TPM | Privacidad |
|---|---|---|---|
| Gemini 1.5 Flash | Cloud (Google) | 15 / 1M | Moderada (API) |
| Llama 3.2 8B | Local (Ollama) | Ilimitado (Hardware) | Máxima (100% Offline) |
| Gemma 3 4B | Local (Ollama) | Ilimitado (Eficiente) | Máxima (100% Offline) |
| GPT-4o (OpenAI) | Cloud (Backup) | Variable (Tier) | Moderada (API) |
* RPM: Request Per Minute | TPM: Tokens Per Minute
El Pipeline Industrial
1. Ingesta Híbrida (`IngestStep`)
Detecta automáticamente si la oferta es de InfoJobs o LinkedIn. Extrae el texto bruto y lo pre-procesa para la IA.
2. Enriquecimiento de GitHub (`EnrichmentStep`)
Analiza tus repositorios públicos. No solo lee el README, busca lenguajes y stacks utilizados para inyectar evidencias reales (Zero-Hallucination).
3. Modo Retoque V7 (`Human-in-the-Loop`)
El sistema separa la **IA** del **Renderizado** para permitir ajustes finos manuales.
Generación: Ejecuta python main.py. Se crea un resume_to_retouch.json en el output.
Edición: Abre el JSON y retoca la narrativa, logros o resumen técnico.
Render: Ejecuta python main.py --mode render --data ... para generar el PDF final.
// Estructura simplificada del retoque
{
"optimized_data": {
"summary": "Fullstack Engineer con enfoque en AWS...",
"experience": [ { "role": "Senior Engineer", ... } ]
}
}
Guía de Instalación
# 1. Clonar el repositorio
git clone https://github.com/Ro0oman/pythonCVGenerator.git
# 2. Instalar dependencias
pip install -r requirements.txt
# 3. Configurar API (Si usas Cloud)
echo "GEMINI_API_KEY=tu_key" > .env
# 4. Iniciar (Modo Local)
ollama run llama3.2
python main.py