Guía del Usuario del Servidor MCP de i18n
Información de la Imagen
- Nombre de la Imagen:
ghcr.io/samyuan1990/i18n-agent-action:mcp
- Imagen Base: Python 3.12
- Directorio de Trabajo:
/app
Descripción
Este es un servidor del Protocolo de Contexto de Modelo (MCP) diseñado para tareas de internacionalización (i18n), que proporciona funcionalidad relacionada con la traducción con soporte para modelos ONNX personalizados.
Inicio Rápido
Extraer la Imagen
docker pull ghcr.io/samyuan1990/i18n-agent-action:mcp
Ejecutar el Contenedor
docker run -p 8080:8080 -e api_key="TU_CLAVE_API" ghcr.io/samyuan1990/i18n-agent-action:mcp
Configuración de Variables de Entorno
api_key
: (Obligatorio) Clave API del servicio de traducciónencoder
: (Opcional) Ruta al archivo del modelo ONNX del codificador (predeterminado:/tmp/base-encoder.onnx
)decoder
: (Opcional) Ruta al archivo del modelo ONNX del decodificador (predeterminado:/tmp/base-decoder.onnx
)tokens
: (Opcional) Ruta al archivo del modelo ONNX de tokens (predeterminado:/tmp/base-tokens.onnx
)
Ejemplo con modelos personalizados:
docker run -p 8080:8080 \
-e api_key="tu-clave-api-de-traduccion" \
-e encoder="/app/models/custom-encoder.onnx" \
-e decoder="/app/models/custom-decoder.onnx" \
-e tokens="/app/models/custom-tokens.onnx" \
ghcr.io/samyuan1990/i18n-agent-action:mcp
{
"method": "docker run",
"args": [
"-p", "8080:8080",
"-e", "api_key=your-api-key",
"-v", "/path/to/your/models:/app/models",
"-e", "encoder=/app/models/your-encoder.onnx",
"-e", "decoder=/app/models/your-decoder.onnx",
"-e", "tokens=/app/models/your-tokens.onnx",
"ghcr.io/samyuan1990/i18n-agent-action:mcp"
]
}
Montar Modelos ONNX Personalizados
Puedes montar tus propios archivos de modelo ONNX en el contenedor usando volúmenes de Docker:
docker run -p 8080:8080 \
-e api_key="tu-clave-api" \
-v /ruta/a/tus/modelos:/app/models \
-e encoder="/app/models/tu-encoder.onnx" \
-e decoder="/app/models/tu-decoder.onnx" \
-e tokens="/app/models/tu-tokens.onnx" \
ghcr.io/samyuan1990/i18n-agent-action:mcp
Configuración de Puerto
- Puerto expuesto predeterminado: 8080
- Puedes ajustar el mapeo de puertos del host:
bash docker run -p 3000:8080 [...] # Mapea el puerto del host 3000 al puerto del contenedor 8080
Estructura del Proyecto
- Usa Poetry para la gestión de dependencias
- Código fuente ubicado en el directorio
/app
dentro del contenedor - Instala automáticamente todas las dependencias adicionales (incluyendo dependencias de desarrollo)
Configuración Personalizada
Para personalización adicional:
-
Montar archivos de configuración:
bash docker run -v /ruta/a/tu/config.yaml:/app/config.yaml [...]
-
Usar variables de entorno:
bash docker run -e api_key="tu-clave" -e OTRA_VAR="valor" [...]
Uso en Desarrollo
Si necesitas modificar el código o desarrollar:
# Clonar el código fuente
git clone <tu-repositorio>
cd <directorio-del-repositorio>
# Usar Docker Compose (recomendado)
# O usar docker run con el código local montado
docker run -p 8080:8080 -v $(pwd):/app -e api_key="tu-clave" ghcr.io/samyuan1990/i18n-agent-action:mcp
Comprobación de Salud
Después de que el servidor se inicie, puedes verificar su estado accediendo a:
curl http://localhost:8080/health
Notas
- Asegúrate de proporcionar una variable de entorno
api_key
válida - El contenedor elimina automáticamente el archivo config.yaml predeterminado al inicio
- Para configuración persistente, montar archivos de configuración externos
- Para modelos personalizados, monte sus archivos ONNX y configure las variables de entorno apropiadas
Soporte y Comentarios
Si encuentra problemas o necesita soporte, envíe un Issue a través del repositorio del proyecto o contacte al mantenedor.