Header Ads Widget

Ticker

6/recent/ticker-posts

Alerta De Apertura: Principales Trabajos De Big Data Para Postularse En Diciembre De 2021

Los trabajos de nivel básico de big data le pagan US $ 40,000 mientras que los de nivel medio pagan US $ 52,000 por año

¿Está buscando una carrera con muchas exploraciones y nuevas oportunidades? Si es así, Big Data es la opción correcta. Con la tecnología que influye en todos los rincones del mundo, una carrera en ciencia de datos también está experimentando fluctuaciones drásticas y demanda debido a su naturaleza fluida y flexible. Según un informe, los trabajos de nivel básico de big data le pagan 40.000 dólares estadounidenses, mientras que los trabajos de nivel medio y de nivel experto pagan 52.000 dólares y 74.000 dólares, respectivamente. Elegir carreras de big data también puede ayudarlo a poner un pie en las empresas multinacionales de diferentes industrias. Le brindará una exposición completamente nueva a conjuntos de datos y conocimientos. Si está interesado en la tecnología y opta por una carrera que podría divertirlo para siempre, entonces busque trabajos de big data. Analytics Insight ha enumerado los principales trabajos de big data que los aspirantes deben solicitar en diciembre de 2021.




Principales trabajos de Big Data para aplicar

Consultor líder - Big Data y Python en Genpact

Ubicación (es): Bangalore

Roles y responsabilidades: como consultor líder en big data y python, el candidato será responsable del desarrollo y soporte de aplicaciones que utilicen tecnologías de big data y python. Él / ella debe manejar los problemas de soporte L3 con aplicaciones de soporte / solución de problemas y trabajar en las mejoras. Deben buscar las causas fundamentales y proporcionar soluciones a largo plazo o automatización. El candidato debe mantener el mantenimiento del entorno gracias a las técnicas de DevOps para implementar el código y actualizar los entornos.

Cualificaciones:

El candidato debe poseer un título B.Tech, BE o MCA.
Se prefieren Python, Shell Scripting, Big Data, Teradata, Hadoop, HiveDB, Google Cloud, Big Query, etc.
También debe tener al menos 8-10 años de experiencia en campos relevantes.


Analista de Big Data en TCS

Ubicación (es): Hyderabad, Bengaluru, Kolkata, Chennai

Funciones y responsabilidades: el analista de big data debe trabajar en la entrega de datos y la generación de funciones para proyectos analíticos e informes. Deben participar en las ceremonias ágiles y presentar el resultado del análisis y el rendimiento a las empresas y respaldar el análisis ad-hoc según sea necesario.

Cualificaciones:

El candidato debe tener más de 4 años de experiencia en Strong SQL, Hive y Hadoop.
Debe tener un profesional con mucha energía y motivación propia con la capacidad de hacer que las cosas sucedan y cumplir con plazos estrictos.
Deben tener un buen conocimiento del dominio de datos y los proyectos centrados en los datos, el recorrido de los datos y la elaboración de perfiles de datos.


Ingeniero de Big Data en Evalueserve

Ubicación (es): Gurugram, Bengaluru (FMH durante Covid)

Funciones y responsabilidades: el ingeniero de big data será responsable de liderar e implementar proyectos en una amplia gama de soluciones de gestión de datos, tanto en las instalaciones como en la nube. Como analista líder, el candidato liderará y gestionará múltiples proyectos en la esfera de la ingeniería de datos.

Cualificaciones:

El candidato debe tener un buen conocimiento de diferentes plataformas en la nube.
Debe tener conocimientos de tecnología como Snowflake, shell scripting, etc.
Se prefiere la capacidad demostrada para gestionar y ejecutar pilotos competitivos con conocimientos técnicos prácticos.

Deben demostrar una sólida experiencia funcional proporcionando liderazgo de contenido en los proyectos.

El candidato debe tener la habilidad de liderar y coordinar a través de diversos equipos para lograr los resultados deseados.
Deben tener la capacidad de administrar y contribuir a múltiples proyectos al mismo tiempo.

Desarrollador de Big Data Hadoop en Applied Materials

Ubicación (es): Bangalore

Funciones y responsabilidades: como desarrollador de big data de Hadoop, el candidato debe utilizar las mejores prácticas y el conocimiento de los problemas comerciales internos o externos para mejorar los productos o servicios. Debería trabajar como parte del equipo distribuido globalmente de GIS BIDM para diseñar e implementar soluciones de big data de Hadoop en alineación con las necesidades comerciales y los cronogramas de proyectos. Deben codificar, probar y documentar sistemas de datos nuevos o modificados para crear aplicaciones robustas y escalables para el análisis de datos. El candidato debe realizar investigación de tecnología y productos para definir mejor los requisitos, resolver problemas importantes y mejorar las capacidades generales de la pila de tecnología analítica.

Cualificaciones:

El candidato debe tener más de 7 años de almacenamiento / ingeniería de datos, modelado de datos y diseño de soluciones de software y experiencia en desarrollo.

Debe tener una sólida experiencia práctica con sistemas de big data como Hdfs, Hive, Impala y Spark en la distribución de Cloudera Hadoop.

Se exige la capacidad de investigar e incubar nuevas tecnologías y marcos.

Ingeniero de datos: Big Data en IBM

Ubicación (es): Pune

Funciones y responsabilidades: como ingeniero de datos en IBM, el candidato debe desarrollar, mantener, evaluar y probar soluciones de big data. Estará involucrado en el diseño de soluciones de datos utilizando tecnologías basadas en Hadoop junto con la programación de Java y Spark. Son responsables de ingerir datos de archivos, transmisiones y bases de datos. El candidato debe ser responsable de desarrollar código de software eficiente para múltiples casos de uso aprovechando Core Java y tecnologías de big data para varios casos de uso construidos en la plataforma.

Cualificaciones:

El candidato debe tener experiencia previa en big data, Hadoop, pyspark, python, hive y SQL.

También debe tener experiencia en el diseño de bases de datos utilizando procedimientos almacenados, funciones y una sólida experiencia en la redacción de consultas complejas para SQL Server.

Publicar un comentario

0 Comentarios