Семь горящих ремоут-вакансий в NIX

1909

NIX — команда с 25-летней историей на рынке украинских аутсорсинговых и консалтинговых компаний, которая работает преимущественно в Харькове. Впервые присоединиться к NIX могут специалисты из разных уголков страны. Делимся горящими предложениями для сотрудничества на удаленке. С полным перечнем всех вакансий можно ознакомиться на сайте.

QA engineer

Крутая возможность улучшать продукты и сервисы для пользователей со всего мира. Требования к кандидату:

  • английский на уровне, достаточном для чтения технической документации и участия в ежедневных Scrum-собраниях;
  • понимание методов и технологий разработки и тестирования;
  • базовые знания любого из языков программирования (Java/Python/JS/C#/Groovy);
  • умение настраивать средства автоматизации (WebDriver, Geb, Postman, Jmeter);
  • знание BDD/Gherkin, specflow, selenium будут плюсом;
  • умение быстро переключаться между задачами;
  • грамотная письменная речь (русский и английский).

Middle Java Full Stack Developer

Участие в повышении качества приложения, расширение пользовательского интерфейса и его улучшение — эти и еще много других возможностей открыты для кандидата на позицию. Здесь важны:

  • опыт разработки Java приложений от двух лет;
  • владение ООП, шаблонами и принципами построения приложений;
  • опыт работы со Spring Framework, JPA/Hibernate;
  • умение работать с брокерами очередей (Kafka, RabbitMQ);
  • владение HTML, CSS, JavaScript;
  • будет плюсом опыт работы с Angular или React;
  • хорошее знание SQL, реляционных и NoSQL баз данных;
  • высокий уровень технического английского (разговорный и письменный).

BI engineer

Вакансия в крупный проект для специалиста с техническим бэкграундом и пониманием специфики страхового бизнеса. От кандидата ожидают:

  • высшее образование в сфере IT, экономики, математики или смежном направлении;
  • владение английским языком на уровне Intermediate и выше;
  • отличные навыки тайм-менеджмента, способность к быстрому обучению и готовность к многозадачности;
  • понимание принципов построения Data Warehouse и разработки ETL-процессов;
  • внедрение и использование различных систем управления базами данных;
  • опыт работы с OLAP-технологиями, Tabular или Columnar-oriented СУБД;
  • построение моделей данных для аналитических запросов;
  • опыт конфигурации и разработки дашбордов с помощью BI инструментов (Power BI, Tableau, Looker etc.);
  • знание SQL на хорошем уровне.

Будет плюсом:

  • опыт использования и внедрения MS SQL Server;
  • Microsoft Analysis Services, SQL Server Reporting Service для аналитики данных и отчетности;
  • знание T-SQL, MDX, DAX и Python;
  • опыт использования Pyramid;
  • работа с инструментами управления требованиями (Jira и Confluence);
  • опыт использования Github или GitLab;
  • понимание специфики страхового бизнеса.

Middle .Net Developer (Blazor, .Net Core, Azure)

Вакансия в масштабном проекте из Healthcare домена. Основная задача — миграция существующей платформы в Azure Cloud, написание всех приложений и сервисов платформы с нуля. Технологии: Blazor, ASP .NET Core 3.x, Azure Cloud. Только автоматизированное тестирование. Приветствуем развитие в сторону техлида или архитектора. Требования к кандидату:

  • опыт работы с .NET Framework или .NET Core от двух лет;
  • отличное знание ООП, шаблонов и принципов построения приложений;
  • написание кода в соответствии с принципами SOLID;
  • опыт работы с Angular/React;
  • опыт использования фреймворка Blazor;
  • знания SQL и NoSQL;
  • опыт работы с Azure Cloud;
  • написание тестов и тестируемого кода;
  • хороший разговорный и письменный английский, не ниже Intermediate (планируется общение с представителями заказчика и участие в Scrum церемониях);
  • умение работать в команде.

Azure DevOps Engineer

Клиент команды — мировой поставщик решений для клинических испытаний и управления информацией. Заманчиво? Смотри, что нужно, чтобы попасть в проект:

  • понимание облачных решений Azure IaaS, PaaS — подготовка и автоматизация с помощью шаблонов ARM, Azure Devops, Azure Active Directory;
  • опыт использования инструментов Git, BitBucket, Mercurial, Jenkins, TeamCity, Octopus, Docker, Kubernetes;
  • навыки работы с TCP/IP, балансировкой нагрузки, DNS;
  • понимание скриптовых языков PowerShell, Bash и операционных систем Win Server 2012/2016, Linux.

Будет плюсом:

  • опыт настройки конвейеров CI/CD для сборки, развертывания и тестирования кода;
  • развертывание и управление микросервисами;
  • умение искать и устранять неисправности в различных средах разработки.

Data Engineer (Microsoft stack)

Вакансия в крупный проект в сфере страхования для экспертов в Microsoft stack. Требования к кандидату:

  • уверенные знания T-SQL;
  • опыт работы с MS SQL Server и SSIS;·
  • оптимизация запросов к базе данных;
  • понимание подходов и принципов построения ETL-процессов;
  • понимание принципов построения хранилищ данных;
  • опыт разработки процессов подготовки данных и их моделей для анализа и построения отчетов;
  • умение работать в команде;
  • коммуникабельность;
  • знание английского на уровне Intermediate и выше.

Будет плюсом:

  • понимание специфики страхового бизнеса;
  • опыт в оптимизации производительности баз данных;
  • опыт работы с SSAS, SSRS сервисами;
  • использование BI систем: Tableau, Power BI, Looker.
  • умение использовать инструменты управления требованиями (Jira и Confluence).

Lead Data Architect/Data Modeler (AWS) (Python)

Разработка SaaS-продукта на базе искусственного интеллекта. Клиент — портал для работы с прогнозированием проблем, обновления и поддержки различных девайсов для корпораций. 

Технологии:

  • Microservices development: Java;
  • Big Data Technologies: Apache Spark, Hadoop;
  • Relational Databases: Postgres, MySQL;
  • NoSQL: MongoDB, DynamoDB;
  • Data-warehousing products: Snowflake or Redshift;
  • Cloud technologies: AWS (Terraform, S3, EMR, EC2, Glue, Athena);
  • Orchestration: Apache Airflow and MLFlow.

Нужен специалист с опытом:

  • разработки на Apache Spark (Scalа);
  • работы в области проектирования схем управления данными и размерного моделирования;
  • создания пайплайнов данных более 1TB (пакетная и потоковая обработка);
  • работы с автоматизированными системами сборки и непрерывной интеграции. 

Будет плюсом:

  • KubeFlow;
  • Spark на Kubernetes.

Почему NIX?

Оставить комментарий

Комментарии | 0

Поиск