Ta oferta jest dla Ciebie, jeśli: masz minimum 5 lat doświadczenia jako Data Engineer lub w pokrewnych rolach danych, bardzo dobrze znasz dbt (dbt-spark) oraz Apache Spark, pracowałeś/aś z formatami tabelowymi Apache Iceberg lub Hudi i rozumiesz
2025-11-15 10:25:13ScaloREQUIREMENTS 5+ years of commercial experience as a Data Engineer Strong expertise in AWS (particularly within the stack mentioned above) Focus on data processing Upper-Intermediate or higher level of English ELEKS Software Engineering & Develop
2025-11-20 10:25:14EleksBardzo dobra znajomość AWS (Redshift – must have) Doświadczenie w migracjach baz danych i integracjach danych SQL, Python/ETL, praca z hurtowniami danych Mile widziane: doświadczenie z DB2, Oracle Znajomość j. angielskiego na poziomie min. B2 -
2025-11-19 10:25:141deaYour responsibilities, As a Team Lead, you are responsible for the technical and disciplinary leadership of our Data Science team., You work hands-on in an cross-functional team and develop innovative data and AI products using machine learning
2025-12-16 13:41:31W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działan
2025-12-16 12:30:02Your responsibilities, Designing, implementing, and optimizing modern cloud-based solutions., Building and launching new data models and data pipelines., Implementing best practices in data engineering including data integrity, quality, and..
2025-12-16 11:41:41Data Engineer49_744000094917785Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-16 10:59:41Eurofins GSC Poland Sp. z o.oData Engineer49_744000094907946Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-16 10:59:41Eurofins GSC Poland Sp. z o.oEssential requirements: Advanced knowledge of SQL and Python Experience in designing and implementing Big Data solutions (Hadoop, Spark etc.) Practical knowledge of ETL tools and stream processing systems Database design and optimization skills
2025-12-16 10:25:14Evidence Prime 5,0Must have skills: 4+ years of commercial experience as a Data Science Engineer Strong knowledge of linear algebra, calculus, statistics, and probability theory Knowledge and experience with algorithms and data structures 2+ years of experience w
2025-12-16 10:25:14Quantum* Deep knowledge of data engineering principles and working experience in developing advanced analytics data pipelines * Knowledge of SQL and excellent coding skills in Python or Scala * Experience working with big data technologies (Hadoop / Hi
2025-12-16 10:25:14AVENGA (Agencja Pracy, nr KRAZ: 8448)Your skills and experiences: 6+ years of experience with SQL, PySpark, Python; Framework knowledge: Apache Airflow, AWS Glue, Kafka, Redshift; Cloud & DevOps: AWS (S3, Lambda, CloudWatch, SNS/SQS, Kinesis), Terraform; Git; CI/CD; Proven ownershi
2025-12-16 10:25:14Winged ITBardzo dobra znajomość SQL (w tym optymalizacja zapytań) oraz języka Python. Doświadczenie w projektowaniu i utrzymaniu pipeline’ów ETL/ELT oraz pracy z dużymi wolumenami danych. Praktyczna znajomość narzędzi Big Data (Spark, Hadoop, Airflow, Ka
2025-12-16 10:25:14IT TALENTOInżynier/ ka ds. Data Engineer42_4693504Obowiązki Projektowanie i budowa pipeline'ów danych dla przemysłu energetycznego Konfiguracja i zarządzanie infrastrukturą chmurową (AWS/Azure/GCP) Implementacja rozwiązań DevOps i MLOps Uczestnictwo we wd
2025-12-16 06:59:50ENERGA S.AYour responsibilities, Working across both Enterprise and Operational Technology environments:, , • Administration and performance optimization of database platforms (primarily MS SQL and/or Oracle), • Management and configuration of Storage Are
2025-12-15 15:41:34Twój zakres obowiązków, Praca przy tworzeniu globalnej platformy analitycznej w firmie, z myślą o skalowalności i kosztach., Projektowanie i rozwój data pipeline'ów (batch, streaming)., Tworzenie i utrzymywanie kontraktów danych, testów i metryk
2025-12-15 15:41:34Your responsibilities, Projektowanie i rozwój asynchronicznych RESTful API w oparciu o FastAPI + Uvicorn, Implementacja walidacji danych i kontraktów API z użyciem Pydantic, Praca z bazą MongoDB (sync: pymongo, async: motor), Modelowanie danych
2025-12-15 11:41:35Twój zakres obowiązków, Projektowanie architektury danych observability dla heterogenicznych źródeł z zapewnieniem wysokiej skalowalności i wydajności., Definiowanie i utrzymywanie modeli danych oraz schematów zgodnych ze standardami OpenTelemet
2025-12-15 10:41:24Your responsibilities, Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability., Design and implement data pipelines that process large volumes of data in both streaming and batc
2025-12-15 10:41:23Your responsibilities, Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability., Design and implement data pipelines that process large volumes of data in both streaming and batc
2025-12-15 10:41:23The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-15 09:56:05emagine PolskaPoland (Remote)Twój zakres obowiązków, Projektowanie, rozwój i utrzymanie rozwiązań danych w środowisku AWS, Budowa oraz optymalizacja procesów ETL/ELT z wykorzystaniem AWS Glue oraz Python, Tworzenie i zarządzanie kontenerami danych oraz integracjami..
2025-12-15 09:41:12Opublikowana 10:08:07. At Ledgy, we’re on a mission to make Europe a powerhouse of entrepreneurship by building a modern… Zobacz tę i więcej podobnych ofert pracy na LinkedIn
2025-12-14 07:52:01LedgyYour responsibilities, You will be responsible for designing, building, and maintaining our data infrastructure, ensuring data quality, and enabling data-driven decision-making across the organization., Design, build, and maintain our data..
2025-12-14 00:40:10The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 16:56:05ConnectisWarszawa 4,2The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 16:56:05SiiWarszawaThe first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 14:56:05MW ConsultingWrocławZakres obowiązków:\nProjektowanie i implementacja pipeline’ów danych, integrujących różne źródła danych\nTworzenie rozwiązań analitycznych we współpracy z data scientistami i analitykami\nRozwój skalowalnej architektury danych w chmurze MS
2025-12-13 14:56:05RITS Professional ServicesWrocławMust-have: 5+ years working experience as a Data Engineer experience in regulated financial services environment as well as commercial facing experience experience in designing and developing robust Data Pipelines using technologies such as Apac
2025-12-13 10:25:13NetguruRequirements: Experience in backend development using Golang. Knowledge of Machine Learning and integration with PLC systems and LLMs. Familiarity with AWS services, including Data Lake and cloud deployment. Understanding of IoT concepts and int
2025-12-13 10:25:13Experis Polska 5,0Bardzo doba znajomość zasad inżynierii danych i doświadczenie w tworzeniu zaawansowanych pipeline’ów analitycznych Znajomość SQL oraz bardzo dobre umiejętności programowania w Pythonie lub Scali Doświadczenie z technologiami Big Data (Hadoop, Hi
2025-12-13 10:25:13Rits CenterWymagania Doświadczenie w pracy z hurtowniami danych w chmurze (preferowane Snowflake). Praktyka w projektach Data Quality (reguły DQ, walidacje, porównania danych). Bardzo dobra znajomość SQL. Biegłość w Snowflake (praca z danymi, monitorowanie
2025-12-13 10:25:13UpvantaExpectations Advanced proficiency in Databricks SQL (mandatory). Advanced proficiency in AWS S3 (recommended). Intermediate proficiency in Application Design, Design & Build Enablement, and Test Execution & Management. Experience in Agile method
2025-12-13 10:25:13Experis Polska 5,0Wymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-12-13 10:10:06DellArchitekt Danych / Architektka DanychTwój zakres obowiązków Projektowanie, rozwijanie i utrzymywanie architektury danych organizacji w sposób zapewniający spójność, bezpieczeństwo, dostępność i wysoką jakość danych w całym cyklu ich przetwarzani
2025-12-13 06:59:52COI - Centralny Ośrodek Informatyki 3,3Contract of EmploymentRemote work
2025-12-12 17:59:00Your responsibilities, Design, implement, and maintain data processing solutions in AWS and Azure environments., Build and optimize ETL pipelines and data integration workflows., Develop and maintain data pipelines using Azure Data Factory,..
2025-12-12 16:41:05Your responsibilities, Design and develop production ETL/ELT pipelines from diverse healthcare data sources, including claims, patient records, and referrals, into S3 data lakes and data warehouses., Implement and manage batch workflows with..
2025-12-12 16:41:04Twój zakres obowiązków, Budowanie i rozwijanie skalowalnych, działających w czasie rzeczywistym i wysokowydajnych rozwiązań typu Data Lake, Tworzenie pipeline’ów ETL w celu pozyskiwania danych z różnych źródeł i przetwarzania ich w chmurze,..
2025-12-12 16:41:04SII Sp z o oYour responsibilities, Leading the development of data infrastructure to extract, transform, and load (ETL/ELT) data., Supporting BI developers and data scientists to build data & analytics solutions., Working with product owners and (senior)..
2025-12-12 15:41:34Your responsibilities, Create scalable data pipelines and real-time processing solutions, Shape the project's data architecture from the beginning, Bring together data from a variety of sources (sensor data, e-commerce, weather feeds, third-part
2025-12-12 15:41:33Twój zakres obowiązków, Projektowanie i implementacja procesów monitorowania oraz poprawy jakości danych (reguły DQ, testy porównawcze)., Tworzenie struktur i przepływów wspierających audyt i kontrolę danych., Walidacja zgodności danych na..
2025-12-12 15:41:33Your responsibilities, Building and optimizing advanced analytics data pipelines using Python or Scala, ensuring efficient data ingestion and processing, Implementing scalable solutions with big data technologies such as Hadoop, Hive, or Spark t
2025-12-12 14:41:22Oferta idealna dla: osób z obszaru Informatyki, Matematyki, Fizyki, Ekonomii Szukasz pierwszej pracy lub stażu w świecie Big Data i AI? Jeśli jesteś studentem lub absolwentem kierunków technicznych/analitycznych i masz podstawowe umiejętności w
2025-12-12 14:19:00Capgemini PolskaOferta idealna dla: osób z obszaru Informatyki, Matematyki, Fizyki, Ekonomii Szukasz pierwszej pracy lub stażu w świecie Big Data i AI? Jeśli jesteś studentem lub absolwentem kierunków technicznych/analitycznych i masz podstawowe umiejętności w
2025-12-12 14:19:00Capgemini PolskaOferta idealna dla: osób z obszaru Informatyki, Matematyki, Fizyki, Ekonomii Szukasz pierwszej pracy lub stażu w świecie Big Data i AI? Jeśli jesteś studentem lub absolwentem kierunków technicznych/analitycznych i masz podstawowe umiejętności w
2025-12-12 14:19:00Capgemini PolskaYour responsibilities, designing and implementing data models and architectures that support financial data management, developing and maintaining ETL processes to integrate data from diverse sources, including market data feeds, customer..
2025-12-12 13:41:15Your responsibilities, Partner with business stakeholders to translate analytical needs into end-to-end data solutions, Design modern data architectures using Azure Data Services, Databricks, and related cloud technologies, Build and refine data
2025-12-12 11:41:34Your responsibilities, Design and maintain ETL/ELT pipelines using SQL, Python, and PySpark for Redshift and Data Lake, Optimize SQL pipelines and ensure high-performance cluster operations, Develop secure data marts and BI-ready tables for..
2025-12-12 09:41:16Our Client is one of the leading telecommunications operators in Poland, providing mobile telephony, internet, and advanced digital solutions. As part of a large international group, the company focuses on innovation, digital transformation, and
2025-12-12 06:59:45SQUARE ONE RESOURCES sp. z o.oThe first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-11 18:56:07Cloudtech Consulting Sp. z o.o.WarszawaTwój zakres obowiązków, projektowanie, wdrażanie i nadzorowanie systemów zarządzania danymi wspieranych przez sztuczną inteligencję,, wsparcie zespołów zajmujących się procesami data management&reporting w zakresie automatyzacji z użyciem narzęd
2025-12-11 16:40:535+ years of experience in data engineering or a related field. Strong hands-on experience with:o Hadoop, Hive, HDFS, Apache Spark, Scalao SQL and distributed data processingo Airflow and Jenkins for workflow orchestration and CI/CDo GCP services
2025-11-11 10:25:15AntalWymagania: Minimum 5 lat doświadczenia w integracji danych na on-prem, w tym biegła znajomość Informatica PowerCenter oraz ekspercka znajomość Oracle i PostgreSQL (projektowanie, budowa, tuning) Doświadczenie w pracy z narzędziami harmonogramują
2025-11-19 10:25:14ITFS sp. z o. o