Tech_Data & DevOps Specialist for AWS
Fecha: 12 ene 2026
Ubicación: VALLADOLID, ES
Empresa: Telefónica

¿QUÉ ES TELEFONICA TECH?
Telefónica Tech es la compañía líder en trasformación digital del Grupo Telefónica. Contamos con una amplia oferta de servicios y soluciones tecnológicas integradas de Ciberseguridad, Cloud, IoT, Big Data, Inteligencia Artificial y Blockchain, con la que acompañamos a nuestros clientes en su transformación digital.
Somos un grupo de más de 6200 personas valientes que trabajamos a diario desde distintos puntos del mundo para alcanzar la excelencia, a través de un liderazgo basado en la transparencia y en el espírItu de equipo. Si te identificas con nuestros pilares, ¡estamos deseando conocerte!
¿QUÉ HACEMOS EN EL EQUIPO?
En la unidad de AI & Data Platforms de Telefónica Tech nos encargamos de la creación de plataformas Big Data diferenciales sobre tecnologías cloud para el procesamiento masivo de datos y la obtención de insights para la construcción de casos de uso sobre ellos que nos permitan tener un papel clave en los servicios que oferta Telefónica Tech.
¿CÓMO SERÁ TU DÍA A DÍA?
Tu misión será la construcción de servicios en la fase del equipo de ingeniería y Devops de las plataformas Big Data. En tu día a día realizarás principalmente:
- Implementación de la infraestructura como código y configuración del código de implementación para ofrecer nuevas plataformas y aplicaciones de datos.
- Diseño, arquitectura e implementación de plataformas de Big Data críticas y sensibles en la nube.
- Administración en la nube e ingeniería de entornos complejos.
- Construcción de activos, procesos y herramientas de DevOps, DataOps e Integración Continua.
- Implementación de protocolos, controles y técnicas de Gestión de la Información de Seguridad.
- Generación y entrega de datos procesados (insights)
- Apoyo a los científicos de datos para construir sus requisitos con el fin de cumplir con los compromisos y contratos del cliente.
- Integración de abastecimiento de datos, monitoreo y resolución de problemas.
- Gobernanza de datos y flujos de trabajo: Adquisición de datos, inventario, catálogo, consistencia, disponibilidad, control de versiones, propiedad, transformación y carga, ciclo de vida, SLA de datos, políticas de acceso y retención, seguimiento/auditoría...
- Procesos de Calidad de Datos
- Automatización de procesos complejos de inteligencia artificial y big data
- Implementación de lógica de datos y orquestación para construir un canal de ciencia de datos eficiente.
- Ajuste de plataformas de datos y trabajos de aprendizaje automático para mejorar el rendimiento o la disponibilidad.
- Explorar formas de hacer que los procesos de ciencia de datos sean más eficientes en términos de rendimiento y optimizar los costos de los recursos de la nube.
- Soporte nivel 3 para Plataformas Big Data, Entornos Analíticos y Data Feeds.
- Construcción de workflows en Airflow, para el procesamiento de datos
Y PARA ELLO, CREEMOS QUE SERÍA IDEAL QUE CONTARAS CON…
Experiencia
- +de 2 años en experiencia comprobada en la creación de procesos y modelos de ingeniería de datos, gobernanza de datos, flujos de trabajo de datos y operaciones de datos específicos de TEF.
- +de 2 años en experiencia profunda en ingeniería y DevOps para plataformas y soluciones TEF Big Data.
- +de 2 años de amplia experiencia trabajando en integración de feeds de datos y técnicas de inspección de datos. Asimismo, debe tener experiencia en la resolución de problemas de incidentes de abastecimiento de datos.
- +de 2 años de dominio comprobado en la administración, arquitectura e implementación de aplicaciones de misión crítica de la nube de AWS y soluciones de Big Data.
- +de 2 años trabajando en proyectos internacionales y equipos multidisciplinarios
Formación
FP /Grado en Informática.
Valoraremos
- Máster en informática o Telecomunicaciones.
- Certificaciones en AW
Conocimientos técnicos
Necesitamos que conozcas
- Uso Avanzado de AWS
- Conocimientos avanzados en Python a nivel Devops para el tratamiento de logs, procesos y control de errores.
- Creación de workflows, DAGs y todo el ecosistema de Airflow.
- Conocimientos de PrestoDB.
Y valoraremos tu conocimiento en:
- Integración con fuentes externas, procesos de Python
- Gestión de incidencias y su seguimiento.
- Herramientas de calidad del dato y de visualización de la información.
- ElasticSearch
- Conocimientos en la arquitectura Kubernetes, uso de pots, y todos los mecanismos de Kubernetes, como charts.
Idiomas
- Español: nivel alto
- Inglés: nivel medio
Para desempeñar el rol, las skills que encajarían con el equipo y el proyecto serían:
Buscamos un experto en Ingeniería Big Data y Tecnología Cloud entusiasta, altamente motivado, comprometido y proactivo, con ganas de trabajar en un equipo de alto rendimiento y capaz de adaptarse rápidamente a cambios frecuentes y aprender en un entorno tecnológico y empresarial muy dinámico, complejo y exploratorio. ambiente.
El candidato debe tener buenas habilidades técnicas e interés específico en la ingeniería de Big Data.
¿QUÉ OFRECEMOS?
• Medidas de conciliación y flexibilidad horaria.
• Formación continua y certificaciones.
• Modelo híbrido de teletrabajo.
• Atractivo paquete de beneficios sociales.
• Excelente ambiente de trabajo dinámico y multidisciplinar.
• Programas de voluntariado.
#SomosDiversos #Fomentamosigualdad
Estamos convencidos/as de que los equipos diversos e inclusivos son más innovadores, transformadores y consiguen mejores resultados.
Por ello promovemos y garantizamos la inclusión de todas las personas sin importar género, edad, orientación e identidad sexual, cultura, discapacidad o cualquier otra condición
¡Queremos conocerte! 😊