Tech_Data & DevOps Specialist for AWS

Fecha: 12 ene 2026

Ubicación: VALLADOLID, ES

Empresa: Telefónica

 

¿QUÉ ES TELEFONICA TECH? 

Telefónica Tech es la compañía líder en trasformación digital del Grupo Telefónica. Contamos con una amplia oferta de servicios y soluciones tecnológicas integradas de Ciberseguridad, Cloud, IoT, Big Data, Inteligencia Artificial y Blockchain, con la que acompañamos a nuestros clientes en su transformación digital.

Somos un grupo de más de 6200 personas valientes que trabajamos a diario desde distintos puntos del mundo para alcanzar la excelencia, a través de un liderazgo basado en la transparencia y en el espírItu de equipo. Si te identificas con nuestros pilares, ¡estamos deseando conocerte!

www.telefonicatech.com

 

 

¿QUÉ HACEMOS EN EL EQUIPO? 

 

En la unidad de AI & Data Platforms de Telefónica Tech nos encargamos de la creación de plataformas Big Data diferenciales sobre tecnologías cloud para el procesamiento masivo de datos y la obtención de insights para la construcción de casos de uso sobre ellos que nos permitan tener un papel clave en los servicios que oferta Telefónica Tech.

 

¿CÓMO SERÁ TU DÍA A DÍA? 

 

Tu misión será la construcción de servicios en la fase del equipo de ingeniería y Devops de las plataformas Big Data. En tu día a día realizarás principalmente:

 

  • Implementación de la infraestructura como código y configuración del código de implementación para ofrecer nuevas plataformas y aplicaciones de datos.
  • Diseño, arquitectura e implementación de plataformas de Big Data críticas y sensibles en la nube.
  • Administración en la nube e ingeniería de entornos complejos.
  • Construcción de activos, procesos y herramientas de DevOps, DataOps e Integración Continua.
  • Implementación de protocolos, controles y técnicas de Gestión de la Información de Seguridad. 
  • Generación y entrega de datos procesados ​​(insights)
  • Apoyo a los científicos de datos para construir sus requisitos con el fin de cumplir con los compromisos y contratos del cliente.
  • Integración de abastecimiento de datos, monitoreo y resolución de problemas.
  • Gobernanza de datos y flujos de trabajo: Adquisición de datos, inventario, catálogo, consistencia, disponibilidad, control de versiones, propiedad, transformación y carga, ciclo de vida, SLA de datos, políticas de acceso y retención, seguimiento/auditoría...
  • Procesos de Calidad de Datos
  • Automatización de procesos complejos de inteligencia artificial y big data
  • Implementación de lógica de datos y orquestación para construir un canal de ciencia de datos eficiente.
  • Ajuste de plataformas de datos y trabajos de aprendizaje automático para mejorar el rendimiento o la disponibilidad.
  • Explorar formas de hacer que los procesos de ciencia de datos sean más eficientes en términos de rendimiento y optimizar los costos de los recursos de la nube.
  • Soporte nivel 3 para Plataformas Big Data, Entornos Analíticos y Data Feeds.
  • Construcción de workflows en Airflow, para el procesamiento de datos 

 

 

Y PARA ELLO, CREEMOS QUE SERÍA IDEAL QUE CONTARAS CON… 

 

Experiencia  

 

  • +de 2 años en experiencia comprobada en la creación de procesos y modelos de ingeniería de datos, gobernanza de datos, flujos de trabajo de datos y operaciones de datos específicos de TEF.
  • +de 2 años en experiencia profunda en ingeniería y DevOps para plataformas y soluciones TEF Big Data.
  • +de 2 años de amplia experiencia trabajando en integración de feeds de datos y técnicas de inspección de datos. Asimismo, debe tener experiencia en la resolución de problemas de incidentes de abastecimiento de datos. 
  • +de 2 años de dominio comprobado en la administración, arquitectura e implementación de aplicaciones de misión crítica de la nube de AWS y soluciones de Big Data.
  • +de 2 años trabajando en proyectos internacionales y equipos multidisciplinarios

 

Formación 

 

        FP /Grado en Informática.

 

       Valoraremos

 

  • Máster en informática o Telecomunicaciones.
  • Certificaciones en AW

 

 

Conocimientos técnicos

  

 

Necesitamos que conozcas

 

 

  • Uso Avanzado de AWS
  • Conocimientos avanzados en Python a nivel Devops para el tratamiento de logs, procesos y control de errores.
  • Creación de workflows, DAGs y todo el ecosistema de Airflow.
  • Conocimientos de PrestoDB.

 

Y valoraremos tu conocimiento en: 

 

  • Integración con fuentes externas, procesos de Python
  • Gestión de incidencias y su seguimiento.
  • Herramientas de calidad del dato y de visualización de la información.
  • ElasticSearch
  • Conocimientos en la arquitectura Kubernetes, uso de pots, y todos los mecanismos de Kubernetes, como charts.

 

Idiomas

 

  • Español: nivel alto
  • Inglés: nivel medio

 

Para desempeñar el rol, las skills que encajarían con el equipo y el proyecto serían

 

Buscamos un experto en Ingeniería Big Data y Tecnología Cloud entusiasta, altamente motivado, comprometido y proactivo, con ganas de trabajar en un equipo de alto rendimiento y capaz de adaptarse rápidamente a cambios frecuentes y aprender en un entorno tecnológico y empresarial muy dinámico, complejo y exploratorio. ambiente.

El candidato debe tener buenas habilidades técnicas e interés específico en la ingeniería de Big Data.

¿QUÉ OFRECEMOS?

•    Medidas de conciliación y flexibilidad horaria.
•    Formación continua y certificaciones.
•    Modelo híbrido de teletrabajo.
•    Atractivo paquete de beneficios sociales.
•    Excelente ambiente de trabajo dinámico y multidisciplinar.
•    Programas de voluntariado.


#SomosDiversos #Fomentamosigualdad

Estamos convencidos/as de que los equipos diversos e inclusivos son más innovadores, transformadores y consiguen mejores resultados. 
Por ello promovemos y garantizamos la inclusión de todas las personas sin importar género, edad, orientación e identidad sexual, cultura, discapacidad o cualquier otra condición

¡Queremos conocerte! 😊