YOUR PROFILE Hands-on experience designing and developing data pipelines with Databricks. Strong working knowledge of Delta Lake, Spark, and Databricks notebooks. Proficiency in SQL and Python for data transformation and analysis. Familiarity wi
2025-11-25 10:25:16Capgemini InventWHO YOU ARE: Required: Bachelor's degree in Computer Science, Geography, Engineering, or relevant job experience Strong proficiency in Python and/or GO programming languages Strong experience with PostgreSQL/PostGIS, including schema design and
2025-11-27 10:25:14BayerPraca w 100% zdalnaUmowa B2B via Michael Page
2025-11-25 17:59:01Praca w 100% zdalnaUmowa B2B via Michael Page
2025-11-25 17:59:01Your responsibilities, Design and implement solutions for processing large-scale and unstructured datasets (Data Mesh, Data Lake, or Streaming Architectures)., Develop, optimize, and test modern DWH/Big Data solutions based on the AWS cloud..
2025-11-25 11:41:28YOUR PROFILE Hands-on experience designing and developing data pipelines with Databricks. Strong working knowledge of Delta Lake, Spark, and Databricks notebooks. Proficiency in SQL and Python for data transformation and analysis. Familiarity wi
2025-11-25 10:25:16Capgemini InventPraktyczna znajomość języka Python - poziom regular (co najmniej 3 lata komercyjnego doświadczenia) Biegłość w SQL (preferowane środowisko Oracle) Swoboda pracy w systemach operacyjnych Linux Zdolność analitycznego myślenia, umiejętność pracy ze
2025-11-25 10:25:15AntalOferta idealna dla: osób z obszaru Informatyka i technologie, Nauki przyrodnicze, Ekonomia i finanse Szukasz swojej pierwszej pracy w IT lub masz do 2 lat doświadczenia? Ta oferta stażowa to świetna szansa na rozwój w obszarze Data Engineering!
2025-11-24 20:19:01Capgemini PolskaProficiency in Scala or Java with substantial experience. Minimum 4–5 years of relevant experience Hands-on expertise in working with Spark. Familiarity with CI/CD methodologies and tools such as GitHub Actions. Knowledge of cloud platforms (GCP
2025-11-24 10:25:21Link GroupYour responsibilities, Working to take data throughout its lifecycle - acquisition, exploration, data cleaning, integration, analysis, interpretation, and visualization,, Participating in delivering end-to-end projects, Creating the pipeline for
2025-11-24 09:41:26Your responsibilities, Develop and maintain data delivery pipelines for a leading IT solution in the energy market, leveraging Apache Spark, Databricks, Delta Lake, and Python., Have end-to-end responsibility for the full lifecycle of features y
2025-11-24 00:40:20Your responsibilities, Build & maintain AWS-based data pipelines (Glue, Lambda, Step Functions), Develop ETL/ELT workflows with Python, SQL, PySpark, Integrate Amazon APIs (Vendor Central, Ads, AMC), Manage QuickSight dashboards & datasets,..
2025-11-23 15:41:07What we expect 5+ years of professional experience as a Data Engineer or Software Engineer in data-intensive environments Strong Python development skills, with solid understanding of OOP, modular design, and testing (unit/integration) Experienc
2025-11-23 10:25:12hubQuestDid you know that Dotlinkers is hiring for Data Engineer. Apply now for the Data Engineer job at Dotlinkers in Poland, Europe with European Jobs. Take the next step in your career today with European Jobs! Last Updated on November 2025
2025-11-23 08:40:02dotLinkersTwój zakres obowiązków, uczestnictwo w projekcie dot. branży bankowej,, projektowanie architektury i wdrażanie nowoczesnych systemów przetwarzania danych w obszarze Big Data,, dbanie o wysoką jakość procesu rozwojowo-wdrożeniowego,, dbanie o..
2025-11-21 15:41:49Your responsibilities, Design and maintain graph data models using Neo4j, Develop and optimize Cypher queries and custom Java integrations, Improve database performance, indexing, and scalability, Collaborate with data scientists and backend..
2025-11-21 15:41:49Your responsibilities, Prepare technical design specifications based on functional requirements and analysis documents., Implement, test, maintain, and support software, as outlined in technical design specifications., Enhance system quality..
2025-11-21 13:41:14Twój zakres obowiązków, projektowanie, budowa i tuning baz danych Oracle i PostgreSQL, prace związane z integracją danych na GCP, odpowiedzialność za obszar wystawiania danych pod usługi w wysokim reżimie wydajnościowym, projektowanie i rozwijan
2025-11-21 12:41:29Twój zakres obowiązków, Projektowanie i rozwój infrastruktury sieciowej w środowiskach Data Center (architektura spine-leaf, fabric, EVPN, VXLAN), Konfiguracja oraz administracja sieci SAN i integracja z systemami storage czołowych producentów.
2025-11-21 11:41:44Minimum 3 lata doświadczenia w inżynierii danych w modelu konsultingowym. Doświadczenie z Azure ADF, SQL Database, Microsoft Fabric, Databricks, Synapse. Znajomość technik modelowania danych i architektury hurtowni danych. Umiejętność tworzenia
2025-11-21 10:25:131dea 4,65+ years of software development experience, strong in Python and SQL. Experience with web technologies (HTML, JavaScript, APIs) and Linux. Familiarity with web scraping tools (Selenium, Scrapy, Postman, XPath). Knowledge of containerization (Do
2025-11-21 10:25:13Link GroupTwój zakres obowiązków, Zarządzanie i monitorowanie procesów ETL w Azure Data Factory, Implementacja procesów analitycznych i transformacji danych przy użyciu Databricks, Tworzenie i optymalizacja zaawansowanych procedur składowanych SQL, Szybki
2025-11-21 09:42:20Wymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-20 17:10:01ERGO Technology & Services S.A 5,0Twój zakres obowiązków, Projektowanie i implementacja potoków ingestii i transformacji danych oraz modeli danych, przy jednoczesnej ścisłej współpracy z interesariuszami biznesowymi., Tworzenie kompleksowych potoków danych ELT w oparciu o usługi
2025-11-20 14:41:11Twój zakres obowiązków, Projektowanie i implementacja potoków ingestii i transformacji danych oraz modeli danych, przy jednoczesnej ścisłej współpracy z interesariuszami biznesowymi., Tworzenie kompleksowych potoków danych ELT w oparciu o usługi
2025-11-20 14:41:11Twój zakres obowiązków, Projektowanie i rozwój potoków danych (ETL/ELT), Integracja danych z rozproszonych systemów (różne źródła, formaty, API), Zapewnienie jakości, spójności i kompletności danych, Współpraca z Data Scientistami, backend..
2025-11-20 14:41:11Twój zakres obowiązków, Projektowanie, rozwijanie i utrzymywanie end-to-end architektur danych na platformie AWS (data lakes, data warehouses, ETL/ELT pipeline)., Automatyzacja procesów danych za pomocą AWS Glue, AWS Lambda, AWS Step Functions i
2025-11-20 12:41:58Wymagania 4–5 lat doświadczenia w obszarze inżynierii danych. Dobra znajomość systemów operacyjnych opartych na Unixie (np. Linux). Bardzo dobra znajomość SQL i zagadnień związanych z bazami danych. Wiedza z zakresu data warehousing i modelowani
2025-11-20 10:25:14Square One ResourcesTwój zakres obowiązków, Dołącz do zespołu naszego klienta i wykorzystaj swoje doświadczenie w przetwarzaniu danych, by tworzyć nowoczesne rozwiązania oparte na najnowszych technologiach!, Jeśli świetnie czujesz się w SQL, Linuxie i pracy z..
2025-11-19 18:03:30Your responsibilities, Develop and maintain data pipelines using modern data engineering tools and frameworks, Integrate data from various sources into Databricks, Design and implement data models to support analytics and reporting, Collaborate
2025-11-19 18:03:29Your responsibilities, Collaborate with a team of Data Engineers and Business Analysts to successfully deliver the data migration project, Work closely with multiple workstreams to ensure efficient coordination and timely delivery of migration.
2025-11-19 18:03:29Your responsibilities, Monitor daily data processing status through email alerts, scheduling tools (Autosys, UC4), or internal ETL interfaces – t0 detect anomalies or signs of potential issues and taking a proper action for resolving the issues
2025-11-19 18:03:23Twój zakres obowiązków, Projektowanie architektury danych (Lakehouse / Data Lake / Data Warehouse)., Tworzenie i optymalizacja procesów ETL/ELT., Zapewnienie jakości, bezpieczeństwa i zgodności danych., Wsparcie zespołów BI/AI/ML w efektywnym..
2025-11-19 18:03:20Wymagania: Minimum 5 lat doświadczenia w integracji danych na on-prem, w tym biegła znajomość Informatica PowerCenter oraz ekspercka znajomość Oracle i PostgreSQL (projektowanie, budowa, tuning) Doświadczenie w pracy z narzędziami harmonogramują
2025-11-19 10:25:14ITFS sp. z o. oYour responsibilities, Contribute to cutting-edge AI initiatives by applying your creativity, critical thinking, and analytical skills., Design and implement scalable data pipelines using cloud, generative, and agentic AI technologies., Work in
2025-11-17 10:40:435+ years of experience in Python and strong software engineering skills Solid knowledge of AWS cloud services and best practices Experience building scalable Spark pipelines in PySpark or Scala Practical experience with Spark Streaming for low-l
2025-11-04 10:25:14Link GroupWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-02 10:10:04The Dot CollectiveWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-01 10:10:05WaymoCzego oczekujemy od Ciebie: Wykształcenia wyższego w obszarze Inżynierii IT, Inżynierii Danych lub Data Science 2–3 lat praktycznego doświadczenia w inżynierii Big Data Znajomości języków programowania i skryptowych: Spark, Scala, Java, Shell, P
2025-10-31 10:25:17ASTEK Polska 3,0The Non-CRF Data Provisioning initiative focuses on ingesting non-CRF data into the organization and performing conformance checks against predefined standards. The scope of data includes not only laboratory data but also non-traditional types s
2025-10-31 06:59:45SQUARE ONE RESOURCES sp. z o.oDuża biegłość w SQL, PySpark i Pythonie w zakresie transformacji danych oraz tworzenia skalowalnych potoków danych (minimum 6 lat doświadczenia komercyjnego). Praktyczne doświadczenie w pracy z Apache Airflow, AWS Glue, Kafka i Redshift. Znajomo
2025-10-30 10:25:14DEVTALENTS sp. z o.oOferta idealna dla: osób z obszaru Informatyka i technologie Szukasz szansy na rozwój w świecie danych? Jako Junior Data Engineer w TENTENS Tech, będziesz wspierać rozwój infrastruktury dla milionów rekordów, pracując z Pythonem i SQL. To idealn
2025-10-29 20:19:00SkelarWhat we expect: — Python knowledge: OOP basics, threads and GIL, working with the pandas library;— SQL knowledge: query language (DQL, DDL, DML, TCL), transactions and ACID principles, indexes;— Big Data knowledge: basic concepts — OLAP vs. OLTP
2025-10-29 10:25:14Innowise 5,0Wesprze rozwój rozwiązań analitycznych w środowisku AzureRola jest samodzielna i obejmuje współpracę z działami klienta w międzynarodowym środowiskuData Engineer (Azure, Pyspark/Foundry, Databricks)Twój zakres obowiązków Projektowanie i rozwój r
2025-10-29 06:59:47SQUARE ONE RESOURCES sp. z o.oOferta idealna dla: osób z obszaru Informatyka i technologie, Nauki przyrodnicze. Szukasz wyzwań w świecie AI i Big Data? Jako Junior Data Engineer dołączysz do zespołu ekspertów, tworząc skalowalne potoki danych i rozwijając systemy w chmurze A
2025-10-28 14:19:03Addepto 5,0The Non-CRF Data Provisioning initiative focuses on ingesting non-CRF data into the organization and performing conformance checks against predefined standards. The scope of data includes not only laboratory data but also non-traditional types s
2025-10-28 06:59:50SQUARE ONE RESOURCES sp. z o.oWspieranie rozwoju platformy komercyjnej w obszarze Business Intelligence i Data Warehousingu.Projektowanie, rozwój i utrzymanie skalowalnych rozwiązań danych.Rozwiązywanie wyzwań związanych z przetwarzaniem i integracją danych w środowisku chmu
2025-10-28 06:59:50SQUARE ONE RESOURCES sp. z o.oFor our client, we are looking for a Presales Engineer with a strong background in data optimization tools.The Role • Domain experience in verticals/industries, e.g. financial services, healthcare, etc • Drive revenue and progress the transactio
2025-10-25 11:53:50Presales engineer_Data engineer Warszawa - Hays Poland - oferta pracy. Tą i setki innych ofert pracy znajdziesz w myCV.pl
2025-10-25 06:31:01Hays PolandDataOps Engineer (Azure, Python)Your responsibilities Design, implement, and maintain CI/CD pipelines for data workflows to enable rapid, reliable deployments Drive observability and testing within data pipelines to ensure quality, uptime, and c
2025-10-24 06:59:47SQUARE ONE RESOURCES sp. z o.oWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-10-21 10:10:15AristocratMinimum 4 lata doświadczenia na stanowisku Data Engineer. Zdolność do tworzenia wydajnych rozwiązań dla dużych zbiorów danych. Bardzo dobra znajomość Pythona, Spark, PySpark oraz SQL. Znajomość Azure, Azure Databricks, Azure DevOps. Dobra znajom
2025-11-27 10:25:14CONNECTISTa oferta jest dla Ciebie, jeśli: posiadasz minimum 3 lata doświadczenia jako Data Engineer, bardzo dobrze znasz Python (w tym JupyterLab, PySpark), swobodnie pracujesz w środowisku AWS, masz bardzo dobrą znajomość SQL, znasz narzędzia BI (Power
2025-11-28 10:25:14Scalo