| 업무내용/자격요건 |
[담당업무] - Klaytn / KAS / Klip등 서비스의 Data Pipeline 설계, 개발, 운영
Airflow Data Pipeline 제작 (SQL, HiveQL, Bigquery, etc.) Business/Labeling을 위한 Data Mart 제작 Streaming Pipeline 제작(Kinesis/Kafka/Spark 중 하나를 통해)
- 비즈니스 요구사항에 따른 데이터 처리 시스템 설계, 개발, 운영
Data Crawling & Data 수집(API, JSON-RPC, etc.) Hourly/Daily작업들의 Automation
[자격요건] 기본적인 컴퓨터 과학 지식이 있으신 분 Python, SQL에 능숙하신 분 Spark(AWS Glue), Kubernetes, AWS 익숙하신 분 AWS 기반의 데이터 파이프라인 및 Data Warehouse 설계/구축/개발/운영 경험 데이터 엔지니어로서의 실무 경험 2년 이상이신 분 커뮤니케이션이 원활하고 함께 일할 줄 아시는 분 문제를 파악, 정의하고 해결 방안을 제시하는 것을 좋아하는 분 블록체인 기술 환경에 대한 관심과 개발에 대한 열정을 보유하신 분 해외 출장/근무에 결격사유가 없는 분
◆ 우대사항
Ethereum ETL 사용 경험이 있으신 분 블록체인 코어에 대한 깊은 이해가 있으신 분 실제 대규모 데이터를 수집, 정제, 저장, 추출, 단위 분석의 전체 사이클을 설계/구축/개발/운영해 본 경험이 있으신 분 데이터 엔지니어링 각 단계별 framework, tool, library에 대한 깊은 이해와 활용 경험자 Data pipeline 관련 infrastructure (Redshift, Elasticsearch, Athena, Kinesis firehose, Snowplow, Airflow, - Google Analytics, Google Data studio 등) 사용 경험이 있으신 분 Docker나 Kubernetes 등 container service 사용 경험이 있으신 분 오픈 소스 적용 및 개발 경험이 있는 분 영어로 의사 소통 및 업무 진행이 가능한 분
[직책/직급] 협의
[근무지] 서울시 강남구 테헤란로 98길 11 EG 빌딩(삼성역)
[전형절차] 서류전형- 면접전형(1,2차)- 처우협의- 채용
[제출서류]
브레인센터 이력서 선호
|