🥇 Trendyol, Türkiye’nin ilk decacorn’u ve dünyanın en önemli e-ticaret platformlarından biridir.
🎯 Trendyol Tech ekibi, 4 ülkede dağılmış ve 150'den fazla scrum ekibine bölünmüş 1400'den fazla takım arkadaşından oluşmakta. Otonom olarak çalışan Trendyol ekipleri dakikada 6 milyondan fazla ürün listeleme isteği alıyor, bu da 400 milyondan fazla istek anlamına geliyor. Günümüzde Trendyol’un 350 binden fazla satıcısı ve 26 milyondan fazla aktif alıcısı bulunuyor.
🧡 Trendyol Tech ekibinde çalışmayı hayal edenlere harika bir haberimiz var!
🚀 Trendyol & Coderspace iş birliği ile yazılım kariyerini şekillendirmeye hazır mısın? 4 hafta sürecek Trendyol Data Management Bootcamp’ine katıl, Trendyol Tech ekibiyle proje geliştir ve sen de bu ekibin bir parçası ol!
23 Eylül 2023 - 28 Ekim 2023 tarihleri arasında aşağıda belirtilen saatlerde,
Cumartesi: 09.00-16.00
Pazar: 09.00-16.00
Süre: 77 saat
🎯As a DWH Analyst, you will play a crucial role in optimizing and managing the organization's DWH systems and processes. You will be responsible for ensuring the efficiency, reliability, and integrity of DWH solutions, enabling data-driven decision-making across the organization. Your role will involve collaborating with various teams to gather requirements, design solutions, implement changes, and provide ongoing support to maintain the DWH infrastructure.
💡 Tech Stack: Google Cloud Services, BigQuery, GitLab, Python, Kafka, Airflow, Looker, DataHub, Visual Paradigm, Monte Carlo
🎯As a DWH Developer, you will be responsible for designing, developing, and maintaining DWH solutions that empower the organization to extract valuable insights from large datasets. You will play a critical role in building and optimizing data pipelines, ETL processes, and data models to ensure efficient and accurate data storage, retrieval, and analysis. Your expertise in DWH development will contribute to the organization's data-driven decision-making capabilities.
💡Tech Stack: Google Cloud Services, BigQuery, Git, GitLab, Vertica, Python, Java, Kafka, CDC, Kafka Connect, Azkaban, Airflow, Docker, Kubernetes, Monte Carlo
🎯As a Data Engineer, you will play a vital role in designing, building, and maintaining the organization's data infrastructure and pipelines. Your focus will be on creating scalable, efficient, and reliable solutions for data ingestion, transformation, storage, and retrieval. You will collaborate with cross-functional teams to ensure data availability, quality, and accessibility for various data-driven initiatives.
💡Tech Stack: Scala, SQL, Git, GitLab, Spark, Flink, Hive, Airflow, Kafka, Cassandra, PostgreSQL, Docker, Kubernetes, Alibaba Cloud, Google Cloud