Data Engineer

Уровень дохода не указан

Опыт работы: 3–6 лет

Полная занятость

График: 5/2

Рабочие часы: 8

Формат работы: удалённо

Напишите телефон, чтобы работодатель мог связаться с вами

Чтобы подтвердить, что вы не робот, введите текст с картинки:
captcha
Обязанности:

1. Разработка и поддержка ETL/ELT процессов

  • Проектирование, разработка и оптимизация пайплайнов в Airflow для загрузки и трансформации данных.
  • Автоматизация загрузки данных из различных источников (БД, API, файловые хранилища).
  • Оптимизация ETL-процессов для работы с большими объемами данных.

2. Работа с базами данных (ClickHouse, PostgreSQL)

  • Проектирование моделей данных и схем хранения для аналитики.
  • Оптимизация SQL-запросов, индексация, настройка партиционирования и репликации.
  • Настройка и поддержка ClickHouse и PostgreSQL для высоконагруженных аналитических задач.

3. Витринизация данных и подготовка аналитики

  • Разработка агрегированных витрин данных для BI-инструментов (Tableau).
  • Настройка процессов обновления данных в витринах.
  • Оптимизация хранения данных и построение OLAP-структур.

4. Интеграция и работа с API

  • Подключение к внешним API и автоматизация выгрузок данных.
  • Разработка сервисов для передачи данных между системами.
  • Создание механизмов стриминговой обработки данных (Kafka/RabbitMQ).

5. Автоматизация и DevOps-практики

  • Настройка мониторинга процессов (логирование, алерты, метрики).
  • Поддержка CI/CD-процессов для деплоя ETL-скриптов.
  • Контейнеризация сервисов с использованием Docker/Kubernetes.

6. Работа с аналитиками и бизнес-командами

  • Сбор требований от аналитиков и продуктовых команд.
  • Дизайн моделей данных с учетом бизнес-логики и аналитических нужд.
  • Поддержка пользователей BI-отчетности (оптимизация запросов, настройка дашбордов).

7. Обеспечение качества и безопасности данных

  • Контроль целостности данных и обработка ошибок загрузки.
  • Настройка доступов и ролевой модели для работы с данными.
  • Разработка тестов и механизмов валидации данных.
Требования:
  • Высшее образование в области информационных технологий, математики или смежных дисциплин.
  • Опыт работы с инструментами ETL/ELT (Apache Airflow) не менее 2-х лет.
  • Уверенные знания SQL и опыт работы с базами данных ClickHouse и PostgreSQL.
  • Опыт разработки BI-решений и работы с инструментами визуализации данных (Tableau).
  • Знания в области интеграции API и опыт работы с Kafka/RabbitMQ.
  • Опыт работы с Docker/Kubernetes и понимание DevOps-практик.
  • Умение работать в команде, высокая степень ответственности и внимание к деталям.
  • Хорошие коммуникативные навыки и способность взаимодействовать с аналитиками и бизнес-командами.
Условия:
  • Применяется удаленный формат работы, место работы возможно в любом городе или любой стране.
  • График: 5/2 с 10.00 до 19.00 по московскому времени.
  • Динамичная работа в команде профессионалов.

Ключевые навыки

  • Clickhouse
  • PostgreSQL
  • Apache Airflow
  • Python
  • SQL
  • Tableau
  • GraphQL
  • Apache Kafka
  • RabbitMQ
  • Docker
  • Kubernetes
  • Git
  • CI/CD
  • Prometheus
  • Grafana
  • ELK

Задайте вопрос работодателю

Он получит его с откликом на вакансию

Вакансия опубликована 10 марта 2025 в Москве

Отзывы о компании

Похожие вакансии