Duża biegłość w SQL, PySpark i Pythonie w zakresie transformacji danych oraz tworzenia skalowalnych potoków danych (minimum 6 lat doświadczenia komercyjnego). Praktyczne doświadczenie w pracy z Apache Airflow, AWS Glue, Kafka i Redshift. Znajomo
2025-10-30 10:25:14DEVTALENTS sp. z o.oWhat you need to have to succeed in this role Excellent experience in the Data Engineering Lifecycle. You will have created data pipelines which take data through all layers from generation, ingestion, transformation and serving. Senior stakehol
2025-10-22 10:25:15HSBC Technology PolandTech Stack Programming: Python, PySpark, SQL, SparkSQL, Bash Azure: Databricks, Data Factory, Delta Lake, Data Vault 2.0 CI/CD: Azure DevOps, GitHub, Jenkins Orchestration: Airflow, Azure Data Factory Databases: SQL Server, Oracle, PostgreSQL, V
2025-10-17 10:25:14Experis PolskaWhat we expect: — Python knowledge: OOP basics, threads and GIL, working with the pandas library;— SQL knowledge: query language (DQL, DDL, DML, TCL), transactions and ACID principles, indexes;— Big Data knowledge: basic concepts — OLAP vs. OLTP
2025-10-29 10:25:14InnowiseYour responsibilities, Collect, analyze, and understand the data requirements of our internal customers in all parts of the company, Advise our internal customers on the design of efficient data-driven processes, Create and maintain modular..
2025-12-18 15:41:20Your responsibilities, Develop and maintain robust data pipelines using Fivetran to ingest data from multiple sources., Implement and manage data transformation processes using dbt, ensuring consistency and quality., Design, build, and optimize
2025-12-18 14:41:24Twój zakres obowiązków, Projektowanie, rozwój i utrzymanie potoków danych (ETL/ELT) w środowisku GCP., Integracja danych z różnych źródeł (API, bazy, pliki) do narzędzi takich jak BigQuery i Cloud Storage., Projektowanie i optymalizacja modeli.
2025-12-18 13:41:17Twój zakres obowiązków, Projektowanie i implementacja procesów ETL/ELT z różnych systemów źródłowych do warstwy brązowej Hurtowni Danych., Opracowywanie i utrzymywanie architektury oraz schematów danych w warstwie brązowej, z uwzględnieniem..
2025-12-18 12:41:23Your responsibilities, designing and implementing data models and architectures that support financial data management, developing and maintaining ETL processes to integrate data from diverse sources, including market data feeds, customer..
2025-12-18 11:41:33Wymagania Doświadczenie: Min. 3 lata z Databricks, PySpark i Python (Pandas, SQL Alchemy) oraz 1 rok z MS Fabric Technologie: Bardzo dobra znajomość SQL oraz frameworków Python (np. FastAPI, Django) Chmura Azure: ADF, ADLS, SQL Server, Key Vault
2025-12-18 10:25:141dea 4,6Strong Python expertise (pipeline development, ETL) Hands-on experience with Google Cloud Platform (BigQuery, Pub/Sub, Dataflow or similar) Familiarity with Apache Flink or willingness to learn (Java-based) Solid Backend Engineering background (
2025-12-18 10:25:14DCG Sp. z o.o+5 lat doświadczenia na stanowisku Data Engineer oraz doświadczenie w pełnieniu roli wiodącej. Praktyczna znajomość ekosystemu GCP, w szczególności:- BigQuery - zaawansowany SQL, zarządzanie kosztami, optymalizacja wydajności.- Cloud Storage - z
2025-12-18 10:25:14T-MOBILE POLSKAMiejsce pracy: Warszawa Poszukujemy doświadczonego Inżyniera Danych do zespołu IT, który będzie odpowiedzialny za rozwój i utrzymanie procesów ETL zasilających warstwę brązową naszej Hurtowni Danych. Rola jest ściśle techniczna i zakłada bliską
2025-12-18 09:47:42Twój zakres obowiązków, Projektowanie i utrzymanie procesów ETL/ELT oraz pipeline’ów danych, Optymalizacja istniejących przepływów danych, zapytań SQL i wydajności baz danych, Integracja danych z różnych źródeł i rozwój hurtowni danych, Budowa i
2025-12-17 15:41:29Twój zakres obowiązków, Projektowanie, rozwój i utrzymanie potoków danych (ETL/ELT) w środowisku GCP., Integracja danych z różnych źródeł (API, bazy, pliki) do narzędzi takich jak BigQuery i Cloud Storage., Projektowanie i optymalizacja modeli.
2025-12-17 12:41:19Your responsibilities, Translate business and user needs into intuitive, visually compelling digital experiences., Support teams to define long-term visions, strategies & new business models that address today’s business needs and future growth
2025-12-17 11:41:35Sprawdzisz się w tej roli, jeżeli: Posiadasz min. 3 lata doświadczenia jako Data Engineer ze Sparkiem (Scala/Java) Potrafisz rozwiązywać złożone problemy Dbasz o najwyższą jakość usług Znasz bardzo dobrze język angielski (C1) Mile widziane: Dośw
2025-12-17 10:25:14ASTEK Polska 3,05–8 years of relevant experience. Knowledge of DSCS and DPTM is a plus. Strong experience with AWS services: S3, IAM, Redshift, Sagemaker, Glue, Lambda, Step Functions, CloudWatch. Hands-on experience with platforms like Databricks and Dataiku
2025-12-17 10:25:14Experis Polska 5,0Required Skills & Experience Minimum 4 years of experience in Data Engineering Databricks: Standard proficiency Azure DevOps: Basic to Standard SQL: Advanced Data Engineering Knowledge (modeling, data flow, SCD2): Standard to Advanced Python: Ba
2025-12-17 10:25:14Experis Polska 5,0Min. 2-3 lata doświadczenia na stanowisku Data Engineera Praktyczna znajomość ekosystemu GCP, w szczególności:- BigQuery - zaawansowany SQL, zarządzanie kosztami, optymalizacja wydajności.- Cloud Storage - zarządzanie danymi, wersjonowanie.- Pub
2025-12-17 10:25:14T-MOBILE POLSKAPersonal requirements: Have 4+ years of Apache Spark experience and have faced various data engineering challenges in batch or streaming Have an interest in stream processing with Apache Spark Structured Streaming on top of Apache Kafka Have exp
2025-12-17 10:25:14KMD PolandYour responsibilities, Develop and maintain the leading IT solution for the energy market using Apache Spark, Databricks, Delta Lake, and Apache Kafka, Have end-to-end responsibility for the full lifecycle of features you develop, Design technic
2025-12-16 14:41:34Your responsibilities, As a Team Lead, you are responsible for the technical and disciplinary leadership of our Data Science team., You work hands-on in an cross-functional team and develop innovative data and AI products using machine learning
2025-12-16 13:41:31W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działan
2025-12-16 12:30:02Your responsibilities, Designing, implementing, and optimizing modern cloud-based solutions., Building and launching new data models and data pipelines., Implementing best practices in data engineering including data integrity, quality, and..
2025-12-16 11:41:41Data Engineer49_744000094917785Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-16 10:59:41Eurofins GSC Poland Sp. z o.oData Engineer49_744000094907946Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-16 10:59:41Eurofins GSC Poland Sp. z o.oEssential requirements: Advanced knowledge of SQL and Python Experience in designing and implementing Big Data solutions (Hadoop, Spark etc.) Practical knowledge of ETL tools and stream processing systems Database design and optimization skills
2025-12-16 10:25:14Evidence Prime 5,0Must have skills: 4+ years of commercial experience as a Data Science Engineer Strong knowledge of linear algebra, calculus, statistics, and probability theory Knowledge and experience with algorithms and data structures 2+ years of experience w
2025-12-16 10:25:14Quantum* Deep knowledge of data engineering principles and working experience in developing advanced analytics data pipelines * Knowledge of SQL and excellent coding skills in Python or Scala * Experience working with big data technologies (Hadoop / Hi
2025-12-16 10:25:14AVENGA (Agencja Pracy, nr KRAZ: 8448)Your skills and experiences: 6+ years of experience with SQL, PySpark, Python; Framework knowledge: Apache Airflow, AWS Glue, Kafka, Redshift; Cloud & DevOps: AWS (S3, Lambda, CloudWatch, SNS/SQS, Kinesis), Terraform; Git; CI/CD; Proven ownershi
2025-12-16 10:25:14Winged ITBardzo dobra znajomość SQL (w tym optymalizacja zapytań) oraz języka Python. Doświadczenie w projektowaniu i utrzymaniu pipeline’ów ETL/ELT oraz pracy z dużymi wolumenami danych. Praktyczna znajomość narzędzi Big Data (Spark, Hadoop, Airflow, Ka
2025-12-16 10:25:14IT TALENTOData Engineer (Snowflake, Fintech)93_8760Obowiązki Designing and implementing robust data pipelines to ingest, clean, and process large volumes of HR data from various sources. Developing and maintaining data models using tools like DBT to ensur
2025-12-16 06:59:517N Sp. z o. o 4,7Inżynier/ ka ds. Data Engineer42_4693504Obowiązki Projektowanie i budowa pipeline'ów danych dla przemysłu energetycznego Konfiguracja i zarządzanie infrastrukturą chmurową (AWS/Azure/GCP) Implementacja rozwiązań DevOps i MLOps Uczestnictwo we wd
2025-12-16 06:59:50ENERGA S.ABig Data Engineer – M/F/D112_25000GPY-enObowiązki Designing and developing solutions for collecting, transforming, and processing large datasets Analyzing data from multiple sources and translating findings into technical specifications Industri
2025-12-16 06:59:40Societe Generale SA Oddzial w PolsceYour responsibilities, Working across both Enterprise and Operational Technology environments:, , • Administration and performance optimization of database platforms (primarily MS SQL and/or Oracle), • Management and configuration of Storage Are
2025-12-15 15:41:34Twój zakres obowiązków, Praca przy tworzeniu globalnej platformy analitycznej w firmie, z myślą o skalowalności i kosztach., Projektowanie i rozwój data pipeline'ów (batch, streaming)., Tworzenie i utrzymywanie kontraktów danych, testów i metryk
2025-12-15 15:41:34Your responsibilities, Projektowanie i rozwój asynchronicznych RESTful API w oparciu o FastAPI + Uvicorn, Implementacja walidacji danych i kontraktów API z użyciem Pydantic, Praca z bazą MongoDB (sync: pymongo, async: motor), Modelowanie danych
2025-12-15 11:41:35Twój zakres obowiązków, Projektowanie architektury danych observability dla heterogenicznych źródeł z zapewnieniem wysokiej skalowalności i wydajności., Definiowanie i utrzymywanie modeli danych oraz schematów zgodnych ze standardami OpenTelemet
2025-12-15 10:41:24Your responsibilities, Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability., Design and implement data pipelines that process large volumes of data in both streaming and batc
2025-12-15 10:41:23Your responsibilities, Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability., Design and implement data pipelines that process large volumes of data in both streaming and batc
2025-12-15 10:41:23The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-15 09:56:05emagine PolskaPoland (Remote)Twój zakres obowiązków, Projektowanie, rozwój i utrzymanie rozwiązań danych w środowisku AWS, Budowa oraz optymalizacja procesów ETL/ELT z wykorzystaniem AWS Glue oraz Python, Tworzenie i zarządzanie kontenerami danych oraz integracjami..
2025-12-15 09:41:12Opublikowana 10:08:07. At Ledgy, we’re on a mission to make Europe a powerhouse of entrepreneurship by building a modern… Zobacz tę i więcej podobnych ofert pracy na LinkedIn
2025-12-14 07:52:01Ledgy5+ years of experience in Python and strong software engineering skills Solid knowledge of AWS cloud services and best practices Experience building scalable Spark pipelines in PySpark or Scala Practical experience with Spark Streaming for low-l
2025-11-04 10:25:14Link GroupCzego oczekujemy od Ciebie: Wykształcenia wyższego w obszarze Inżynierii IT, Inżynierii Danych lub Data Science 2–3 lat praktycznego doświadczenia w inżynierii Big Data Znajomości języków programowania i skryptowych: Spark, Scala, Java, Shell, P
2025-10-31 10:25:17ASTEK Polska