Big Data Developer Senior/Medior/Junior - Bizkaia

Información del Proceso
% CVs leídos 100%
Rapidez lectura: 00 d. 3 h. 0 m.
CVs inscritos en el proceso: 9

Big Data Developer Senior/Medior/Junior

ZYLK
12/06/2019

Descripción

Estamos ampliando nuestro equipo de Big Data y buscamos developers que tengan interés en desarrollarse profesionalmente en este área. Valoramos el hecho de que hayas estudiado para obtener una titulación pero no es nuestra principal preocupación. Nuestro equipo está formado por físicos, ingenieros de telecomunicación, ingenieros de software, estudiantes de formación profesional en desarrollo aplicaciones ...

Sí valoramos en cambio la experiencia acumulada en las siguientes áreas:
- Soltura con sistemas operativos Linux
- Hadoop Ecosystem: HDFS, Yarn, HBASE, Hive, Nifi, Flume, Kafka, Flink, Spark
- Azure (HDInsight), Amazon
- HTML5, Javascript, Angular
- Apache, Apache Tomcat, MySQL
- Herramientas de desarrollo: Eclipse, Gitlab, Jenkins, Ant, Maven, Nexus
- Metodologías ágiles
- Inglés hablado y escrito
- Participación en proyectos Open Source

En la inscripción te planteamos una serie de preguntas relacionadas con el ecosistema de hadoop. No hay una sola respuesta correcta, son preguntas abiertas. Razona tus respuestas para que podamos ver lo que sabes. Si eres junior, entendemos que no sabrás algunas, no pasa nada.

El trabajo es de Developer y entrarías a formar parte de nuestro equipo de Big Data. Como equipo multidisciplinar que somos, las tareas a realizar son mayormente de desarrollo de código, pero también de análisis, automatización de tests, despliegues, resolución de problemas, creación de piezas intermedias o artefactos técnicos... Lo que verdaderamente nos importa es la capacidad de entender los problemas desde el punto de vista de negocio y técnico, idear soluciones y ser capaces de ponerlas en producción.

Los proyectos que desarrollamos van orientados en las siguientes lineas:
- Gestión de clusters de hadoop de tamaño medio, entre 10 y 50 nodos
- Procesos de ingesta masiva de datos usando NiFi
- Sistemas de procesado de datos en tiempo real usando Flink
- Gobernanza de datos en entornos BigData para su explotación avanzada usando HIVE
- Creación de modelos usando técnicas tanto de ML usando Spark como de DL usando Pytorch y/o Tensorflow
Todo ello usando herramientas del ecosistema apache hadoop como las anteriormente mencionadas o como Druid para el análisis de series temporales por ejemplo, o como Hbase para la creación de aplicaciones (online) de alto rendimiento.

Ah! y también estamos construyendo unos cuantos productos en calidad de Investigación (SmartCities, Industry 4.0, brazos robóticos...)

Nos gusta hacer las cosas bien tanto en tecnología como en la en forma de trabajar, por eso toda nuestra metodología de desarrollo está basada en devops, automatizando al máximo para dedicar el tiempo a las cosas importantes (Eclipse, Github, Jenkins, Ant, Maven, Nexus, ...). Y como no podía ser de otra forma trabajamos en un entorno ágil y con herramientas colaborativas de última generación (Slack). También nos gusta que nuestro equipo esté bien preparado, por lo que hemos desarrollado workshops formativos relacionados con de cada uno de los productos del ecosistema (desde poner un cluster en producción hasta crear jobs para el streaming de datos) con el objetivo de que empieces a aportar lo más rápido posible.

Y por último, estamos enganchados a publicar en los markets, compartir código y generar conocimiento.

Más ventajas:
- Programa de certificaciones
- Impartición y asistencia a masterclasses
- Asistencia a congresos
- Horario de trabajo semi flexible
- Jornada intensiva todos los viernes, víspera de festivos
- Jornada intensiva en verano
- Parada para comer flexible
- Tenemos cocina / comedor


Tecnologías
Funciones Profesionales

Detalles de la oferta
  • Idioma: Inglés
  • Experiencia: Menos de un año
  • Formación Mínima: Bachillerato/COU
  • Nivel Profesional: Prácticas / Beca
  • Tipo contrato: A determinar
  • Jornada: Jornada completa
  • Salario: No especificado