Data Engineer - Remote Contract

Зарплата от $5,000 до $6,500

Требуемые навыки

Местоположение и тип занятости

📍 Gibraltar-Spain neutral zone
👨‍💻 Можно удаленно

Короткое описание

Ищем DataEngineer на контрактной основе для работы с финансовыми данными в крупной американской венчурной компании. Вакансия для работы удаленно на 6 месяцев с возможностью продления. Требуется опыт работы с SQL, Big Data, Python, Snowflake, BigQ, Looker, GCP и ETL. Обязательным условием является уровень английского B2 и выше. Возможность работы вне офиса компании.

Размещено 03.04.2024

Онлайн карьерный консультант в IT

Rabotan, ваш AI-карьерный консультант. Готов помочь усовершенствовать ваше резюме и подготовиться к интервью.

Оцените вакансию «Data Engineer - Remote Contract»

Чем больше вы оцениваете, тем лучше будут ваши рекомендации по вакансиям

#dataengineer #contractposition #remote #sql #bigdata #financialdata #python #bigq #looker #snowflake

разыскиваем #dataengineer на работу по контракту с крупной американской венчурной компанией.

контракт на 6 месяцев с возможностью перезаключения договора.

предпочтительна возможность работать в их часовых поясах, но возможны варианты.

стек технологий: gcp, etl, snowflake, bigq, python, looker (нужен full stack)

английский b2 и выше – условие обязательное.

работать за пределами россии и беларуси - условие обязательное.

зарплата $5000 – 6500 net

для связи: https://t.me/tary_bird

description of the data engineer contract position:

location: preferably san francisco bay area, or remotely in the pacific or central time zone.

company:

a large venture company with assets of over $11 billion and employees in austin, london, menlo park, and san francisco.

what you will be doing:

as a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.

responsibilities:

design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using sql, nosql, and big data technologies.

develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.

create an automated process for collecting and visualizing user engagement data from crm/ui.

what we are looking for:

qualifications:

• experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining etl pipelines.

• valid experience with the google cloud platform (gcp).

• deep experience with data pipeline and workflow management tools (e.g., airflow).

• solid knowledge and experience with database design, setup, and maintenance.

• proven ability to work in highly dynamic environments with high product velocity.

• strong proficiency in python.

• strong proficiency in sql.

• familiarity with data visualization tools (looker ).

• experience with snowflake.

• experience with bigquery.

• strong communication skills, both orally and in writing.

• familiarity with crm (affinity, salesforce), automation tools (zapier)

bonus points:

• experience in venture capital data operations/working with financial data.

• familiarity with crm (affinity, salesforce), automation tools (zapier).

• bachelor's or master's degree in computer science, database management, etc.

Подписка на вакансию

Укажи свой стек, опыт работы, зарплату и бот подберет для тебя подходящие офферы.

🚀 Создать подписку