Czego oczekujemy od Ciebie: Wykształcenia wyższego w obszarze Inżynierii IT, Inżynierii Danych lub Data Science 2–3 lat praktycznego doświadczenia w inżynierii Big Data Znajomości języków programowania i skryptowych: Spark, Scala, Java, Shell, P
2025-10-31 10:25:17ASTEK PolskaDuża biegłość w SQL, PySpark i Pythonie w zakresie transformacji danych oraz tworzenia skalowalnych potoków danych (minimum 6 lat doświadczenia komercyjnego). Praktyczne doświadczenie w pracy z Apache Airflow, AWS Glue, Kafka i Redshift. Znajomo
2025-10-30 10:25:14DEVTALENTS sp. z o.oMinimum one year experience working on data processing platforms. Development experience in Big Data software development technologies such as Python, Hadoop, Hive or Spark. Proficient background in Unix or Linux programming language Programming
2025-10-15 10:25:14Experis PolskaTech Stack Programming: Python, PySpark, SQL, SparkSQL, Bash Azure: Databricks, Data Factory, Delta Lake, Data Vault 2.0 CI/CD: Azure DevOps, GitHub, Jenkins Orchestration: Airflow, Azure Data Factory Databases: SQL Server, Oracle, PostgreSQL, V
2025-10-17 10:25:14Experis PolskaTwój zakres obowiązków, projektowanie, wdrażanie i nadzorowanie systemów zarządzania danymi wspieranych przez sztuczną inteligencję,, wsparcie zespołów zajmujących się procesami data management&reporting w zakresie automatyzacji z użyciem narzęd
2025-12-11 16:40:53Twój zakres obowiązków, koordynacja zadań w rozproszonej grupie ekspertów domenowych (różne departamenty banku),, koordynacja prac zespołu specjalistów obsługujących technicznie interfejs wymiany danych,, nadzór merytoryczny nad pracami..
2025-12-11 15:41:34Your responsibilities, Develop, maintain, and optimise the Snowflake data warehouse, ensuring cost efficiency and performance., Build and improve data ingestion processes (ETL/ELT), primarily between Salesforce and Snowflake., Implement backend
2025-12-11 14:41:19Twój zakres obowiązków, Projektowanie, rozwijanie i utrzymywanie architektury danych organizacji w sposób zapewniający spójność, bezpieczeństwo, dostępność i wysoką jakość danych w całym cyklu ich przetwarzania., Opracowywanie i wdrażanie..
2025-12-11 14:41:19Oferta idealna dla: osób z obszaru informatyka, matematyka, fizyka, ekonomia Szukasz swojej pierwszej pracy w obszarze danych? Ta oferta to świetna okazja, aby rozwijać umiejętności w programowaniu w Pythonie, przetwarzaniu danych w Spark, SQL i
2025-12-11 14:19:01Capgemini PolskaOferta idealna dla: osób z obszaru Informatyka, Matematyka, Fizyka, Ekonomia Szukasz swojej pierwszej pracy w świecie Big Data, chmury obliczeniowej i AI? Dołącz do zespołu Insights & Data, gdzie będziesz programować w Pythonie, Sparku i SQL, pr
2025-12-11 14:19:01Capgemini PolskaYour responsibilities, Build and maintain data pipelines and platforms in Databricks and Azure using Apache Spark., Ensure data security, governance, and compliance using Unity Catalog and best practices., Develop reusable Python libraries for.
2025-12-11 13:41:19The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-11 11:56:05Lumicode Sp. z o.o. (Pentacomp Group)WarszawaYour responsibilities, As part of the Data & AI area, we implement projects based on the practical "data science" and "artificial intelligence" applications of an unprecedented scale in Poland. Data & AI is a group of over 150 experienced..
2025-12-11 11:41:46Your responsibilities, As part of the Data & AI area, we implement projects based on the practical "data science" and "artificial intelligence" applications of an unprecedented scale in Poland. Data & AI is a group of over 150 experienced..
2025-12-11 11:41:46Bardzo dobra znajomość środowiska Google Cloud Platform (GCP). Zaawansowane umiejętności w SQL i PL/SQL. Praktyczna znajomość języka Python (Scala jako atut). Wykształcenie wyższe z obszaru informatyki, analityki danych, statystyki lub kierunków
2025-12-11 10:25:20SquareOne4+ years of experience in data engineering Hands-on knowledge of DBT, Snowflake, Fivetran, and SQL or similar solutions Understanding of data privacy and governance Ability to work independently and collaboratively in a global environment. Exper
2025-12-11 10:25:20Link GroupWhat you need to have to succeed in this role Proficient in Python programming, VBA and SQL Knowledge of Jira, Git, test driven development Experience with Product Control Financial data Experience in designing microservice-driven system archite
2025-12-11 10:25:20HSBC Technology PolandWhat are we looking for? A strong Data Engineering background. Experience working in AWS cloud infrastructure. Experience developing and supporting robust, automated, and reliable data pipelines in Python and SQL. Excellent Python and SQL skills
2025-12-11 10:25:20AUCTANE Poland Sp. z o.oMust-Have Requirements Strong hands-on experience with Google Cloud Platform (GCP) – mandatory Advanced knowledge of SQL and PL/SQL Proficiency in Python (Scala is a plus) Minimum 3 years of experience in a data-focused role (Data Analyst / Data
2025-12-11 10:25:20Square One Resources5+ years of experience in data engineering roles. Deep hands-on experience with Databricks, including Unity Catalog, Delta Lake, and Lakehouse architecture. Strong proficiency in Apache Spark, including PySpark, Spark SQL, and Spark performance
2025-12-11 10:25:20Sopra Steria Poland 4,7Nasze wymagania: Masz doświadczenie w zakresie przetwarzania danych, szczególnie na rozwiązaniach opartych na Google Cloud Platform (GCP) Masz praktyczne doświadczenie w zakresie modelowania i przetwarzania danych oraz nowoczesnej architektury p
2025-12-11 10:25:20Diagnostyka S.AWymagania Minimum 4 lata komercyjnego doświadczenia na podobnym stanowisku Doświadczenie w tworzeniu i orkiestracji potoków danych (mile widziany Dagster lub podobne) Biegła znajomość języka Python (programowanie obiektowe) Bardzo dobra znajomoś
2025-12-11 10:25:201dea 4,6Min. 5 lat doświadczenia na stanowisku Data Engineer Doświadczenie z Oracle PL/SQL (procedury składowane, funkcje, pakiety) Praktyczne doświadczenie z GCP BigQuery, Azure lub AWS Doświadczenie w pracy z repozytoriami Git/Bitbucket/Azure Repos Ba
2025-12-11 10:25:20ITFS sp. z o. oExpertise in building high-performance, asynchronous RESTful APIs using FastAPI and MongoDB Atlas. Proficient in the modern Python ecosystem, focusing on type safety, cloud integration, and secure authentication flows. Expert in developing async
2025-12-11 10:25:20AVENGA (Agencja Pracy, nr KRAZ: 8448)What makes you a great fit? Technical Expertise: Deep experience with modern data platforms: Snowflake, Microsoft Fabric, Databricks Strong proficiency in SQL and Python with a solid grasp of software engineering best practices Hands-on knowledg
2025-12-11 10:25:20ElitmindHave academic or industrial experience and PhD or master's degree in computer science or another quantitative field. Have an analytical background with experience in statistical data analysis. Demonstrate experience with coding in one or more of
2025-12-11 10:25:20Akamai Technologies 4,9Wymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-12-11 10:10:04DellWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-12-11 10:10:04AcutaneTwój zakres obowiązków, projektowanie i rozwój skalowanych rozwiązań na platformie Databrics,, rozwój framework na platformie Databricks - definiowanie i wdrażanie najlepszych praktyk w zakresie architektury danych, jakości kodu, z uwzględnienie
2025-12-11 09:41:12We are seeking a Data Engineer to work closely with our data science team and contribute to the development of cloud infrastructure and data models. The ideal candidate will have experience with AWS, data ingestion, and data modeling. The role i
2025-12-10 21:05:27Your responsibilities, Build and maintain data ingestion processes from various source systems into a Data Lake, Design, develop, and optimize complex data pipelines ensuring reliable and efficient data flow, Create, enhance, and maintain..
2025-12-10 17:41:03Your responsibilities, Design and develop production ETL/ELT pipelines from diverse healthcare data sources, including claims, patient records, and referrals, into S3 data lakes and data warehouses., Implement and manage batch workflows with..
2025-12-10 16:41:00Ekrutacja do Nowy Styl Sp. z o.o.Inżynier_Inżynierka danychMiejsce pracy: JasłoNr ref: ID/11/25Twój zakres obowiązków:*zarządzanie danymi produkcyjnymi w systemie ERP*analiza danych produkcyjnych*udział w projektach wdrożeniowych mających na cel
2025-12-10 16:25:04Your responsibilities, Build and maintain robust web scrapers that extract and process data from GCP into BigQuery, Develop, improve, and optimize dbt models, tests, and pipelines to ensure high data quality, lineage clarity, and reliable..
2025-12-10 14:41:20Twój portal z ofertami pracy
2025-12-10 13:54:17Volkswagen Group ServicesYour responsibilities, Design, implement, and maintain high-performance data pipelines using CDC principles, Build and optimize solutions with Kafka for real-time data integration, Develop batch and streaming data workflows with Spark, Collabora
2025-12-10 12:41:37Your responsibilities, As a Data Engineer, you will provide technical leadership and guide customers to successful implementations of big data projects, ranging from architecture and design to data engineering to model deployment. You will lead
2025-12-10 12:41:36Your responsibilities, Design, build, and optimize scalable data infrastructure for risk and compliance workloads, Develop batch and streaming pipelines using modern big data technologies, Implement robust ETL and ELT workflows across diverse..
2025-12-10 12:41:36Twój zakres obowiązków: zarządzanie danymi produkcyjnymi w systemie ERP analiza danych produkcyjnych udział w projektach wdrożeniowych mających na celu wdrażanie nowych produktów udział w tworzeniu zasad organizacji oraz wykorzystania informacji
2025-12-10 11:29:23Wymagania Doświadczenie w pracy z hurtowniami danych w chmurze (preferowane Snowflake). Praktyka w projektach Data Quality (reguły DQ, walidacje, porównania danych). Bardzo dobra znajomość SQL. Biegłość w Snowflake (praca z danymi, monitorowanie
2025-12-10 10:25:16UpvantaExpectations Strong knowledge of ETL/ELT pipelines and metadata-driven ingestion frameworks. Proven experience in data engineering and ingestion processes on Azure platforms. Hands-on experience with Azure Data Factory, Databricks, Data Lake, an
2025-12-10 10:25:16Experis Polska 5,0Bachelor's degree in Computer Science, Engineering, or a related field. Proven experience as a Data Engineer or in a similar role. Strong knowledge of data processing technologies and database systems (SQL, NoSQL). Experience with data pipeline
2025-12-10 10:25:16Mindbox S.AWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-12-10 10:10:02SimCorpTwój zakres obowiązków, Projektowanie i budowa procesów zbierania danych z różnych źródeł (API, raporty, systemy zewnętrzne, np. Meta)., Implementacja i utrzymanie konektorów do źródeł danych (m.in. przez API, Python)., Ładowanie, walidacja i..
2025-12-10 08:40:35Opublikowana 10:59:46. Provectus helps companies adopt ML/AI to transform the ways they operate, compete, and drive value.… Zobacz tę i więcej podobnych ofert pracy na LinkedIn
2025-12-10 07:53:11ProvectusYour responsibilities, Maintaining and optimizing the CRM database in MS SQL, Managing service requests and change requests related to the CRM database, Investigating and resolving issues related to the CRM database and its associated applicatio
2025-12-09 17:41:01Twój zakres obowiązków, Wdrażanie i utrzymywanie rozwiązań Thales, takie jak CipherTrust Manager, Luna HSM czy Vormetric., Zarządzanie cyklem życia kluczy szyfrujących oraz politykami dostępu do danych., Przeprowadzanie analiz ryzyka, audytów..
2025-12-09 15:41:45Twój zakres obowiązków, Budowa i utrzymanie pipeline’ów danych (bronze → silver → gold) zgodnie ze standardami ELT., Współpraca z analitykami, zespołami projektowymi i właścicielami danych w celu doprecyzowania wymagań., Implementacja mechanizmó
2025-12-09 14:41:38Twój zakres obowiązków, Projektowanie, rozwój i testowanie komponentów ETL/ELT (ingest, transformacje, ładowanie danych, workflow, dependencies, check-gates)., Zapewnienie skalowalności, wydajności i niezawodności przepływów danych.,..
2025-12-09 14:41:38Oferta idealna dla: osób z obszaru Informatyka i technologie, Inżynieria i technika Szukasz szansy na rozwój w świecie serwerów i Data Center? Ta oferta to idealny start, jeśli masz dobrą znajomość sprzętu IT i podstaw sieci, a także prawo jazdy
2025-12-09 14:19:01Grupa Wirtualna PolskaOferta idealna dla: osób z obszaru Informatyka i technologie Szukasz wyzwań w świecie danych? Ta rola to szansa na projektowanie i wdrażanie skalowalnych rozwiązań z wykorzystaniem Pythona, PySpark i SQL, a także platform chmurowych takich jak A
2025-12-09 14:19:01sixTwój zakres obowiązków, Budujesz wewnętrzne rozwiązania w obszarze data., Czuwasz nad spójnością architektury i procesów data w organizacji., Wspierasz cyfrową transformację Diagnostyki poprzez przyspieszenie adopcji nowych technologii.,..
2025-12-09 12:41:31Your responsibilities, Lead the design, deployment, and tuning of Personal Data Discovery (PDD) on user workstations and M365 SharePoint sites., Implement automated data discovery and remediation for GDPR-regulated data, with a focus on unmanage
2025-12-09 11:41:50What we expect: — Python knowledge: OOP basics, threads and GIL, working with the pandas library;— SQL knowledge: query language (DQL, DDL, DML, TCL), transactions and ACID principles, indexes;— Big Data knowledge: basic concepts — OLAP vs. OLTP
2025-10-29 10:25:14InnowiseWhat you need to have to succeed in this role Excellent experience in the Data Engineering Lifecycle. You will have created data pipelines which take data through all layers from generation, ingestion, transformation and serving. Senior stakehol
2025-10-22 10:25:15HSBC Technology Poland