Czego oczekujemy od Ciebie: Wykształcenia wyższego w obszarze Inżynierii IT, Inżynierii Danych lub Data Science 2–3 lat praktycznego doświadczenia w inżynierii Big Data Znajomości języków programowania i skryptowych: Spark, Scala, Java, Shell, P
2025-10-31 10:25:17ASTEK PolskaWhat we expect: — Python knowledge: OOP basics, threads and GIL, working with the pandas library;— SQL knowledge: query language (DQL, DDL, DML, TCL), transactions and ACID principles, indexes;— Big Data knowledge: basic concepts — OLAP vs. OLTP
2025-10-29 10:25:14InnowiseDuża biegłość w SQL, PySpark i Pythonie w zakresie transformacji danych oraz tworzenia skalowalnych potoków danych (minimum 6 lat doświadczenia komercyjnego). Praktyczne doświadczenie w pracy z Apache Airflow, AWS Glue, Kafka i Redshift. Znajomo
2025-10-30 10:25:14DEVTALENTS sp. z o.oTech Stack Programming: Python, PySpark, SQL, SparkSQL, Bash Azure: Databricks, Data Factory, Delta Lake, Data Vault 2.0 CI/CD: Azure DevOps, GitHub, Jenkins Orchestration: Airflow, Azure Data Factory Databases: SQL Server, Oracle, PostgreSQL, V
2025-10-17 10:25:14Experis PolskaYour responsibilities, Develop and maintain the leading IT solution for the energy market using Apache Spark, Databricks, Delta Lake, and Apache Kafka, Have end-to-end responsibility for the full lifecycle of features you develop, Design technic
2025-12-16 14:41:34Your responsibilities, As a Team Lead, you are responsible for the technical and disciplinary leadership of our Data Science team., You work hands-on in an cross-functional team and develop innovative data and AI products using machine learning
2025-12-16 13:41:31W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działan
2025-12-16 12:30:02Data Engineer49_744000094917785Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-16 10:59:41Eurofins GSC Poland Sp. z o.oData Engineer49_744000094907946Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-16 10:59:41Eurofins GSC Poland Sp. z o.oEssential requirements: Advanced knowledge of SQL and Python Experience in designing and implementing Big Data solutions (Hadoop, Spark etc.) Practical knowledge of ETL tools and stream processing systems Database design and optimization skills
2025-12-16 10:25:14Evidence PrimeMust have skills: 4+ years of commercial experience as a Data Science Engineer Strong knowledge of linear algebra, calculus, statistics, and probability theory Knowledge and experience with algorithms and data structures 2+ years of experience w
2025-12-16 10:25:14Quantum* Deep knowledge of data engineering principles and working experience in developing advanced analytics data pipelines * Knowledge of SQL and excellent coding skills in Python or Scala * Experience working with big data technologies (Hadoop / Hi
2025-12-16 10:25:14AVENGA (Agencja Pracy, nr KRAZ: 8448)Your skills and experiences: 6+ years of experience with SQL, PySpark, Python; Framework knowledge: Apache Airflow, AWS Glue, Kafka, Redshift; Cloud & DevOps: AWS (S3, Lambda, CloudWatch, SNS/SQS, Kinesis), Terraform; Git; CI/CD; Proven ownershi
2025-12-16 10:25:14Winged ITBardzo dobra znajomość SQL (w tym optymalizacja zapytań) oraz języka Python. Doświadczenie w projektowaniu i utrzymaniu pipeline’ów ETL/ELT oraz pracy z dużymi wolumenami danych. Praktyczna znajomość narzędzi Big Data (Spark, Hadoop, Airflow, Ka
2025-12-16 10:25:14IT TALENTOData Engineer (Snowflake, Fintech)93_8760Obowiązki Designing and implementing robust data pipelines to ingest, clean, and process large volumes of HR data from various sources. Developing and maintaining data models using tools like DBT to ensur
2025-12-16 06:59:517N Sp. z o. o 4,7Inżynier/ ka ds. Data Engineer42_4693504Obowiązki Projektowanie i budowa pipeline'ów danych dla przemysłu energetycznego Konfiguracja i zarządzanie infrastrukturą chmurową (AWS/Azure/GCP) Implementacja rozwiązań DevOps i MLOps Uczestnictwo we wd
2025-12-16 06:59:50ENERGA S.ABig Data Engineer – M/F/D112_25000GPY-enObowiązki Designing and developing solutions for collecting, transforming, and processing large datasets Analyzing data from multiple sources and translating findings into technical specifications Industri
2025-12-16 06:59:40Societe Generale SA Oddzial w PolsceYour responsibilities, Working across both Enterprise and Operational Technology environments:, , • Administration and performance optimization of database platforms (primarily MS SQL and/or Oracle), • Management and configuration of Storage Are
2025-12-15 15:41:34Twój zakres obowiązków, Praca przy tworzeniu globalnej platformy analitycznej w firmie, z myślą o skalowalności i kosztach., Projektowanie i rozwój data pipeline'ów (batch, streaming)., Tworzenie i utrzymywanie kontraktów danych, testów i metryk
2025-12-15 15:41:34Your responsibilities, Projektowanie i rozwój asynchronicznych RESTful API w oparciu o FastAPI + Uvicorn, Implementacja walidacji danych i kontraktów API z użyciem Pydantic, Praca z bazą MongoDB (sync: pymongo, async: motor), Modelowanie danych
2025-12-15 11:41:35Twój zakres obowiązków, Projektowanie architektury danych observability dla heterogenicznych źródeł z zapewnieniem wysokiej skalowalności i wydajności., Definiowanie i utrzymywanie modeli danych oraz schematów zgodnych ze standardami OpenTelemet
2025-12-15 10:41:24Your responsibilities, Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability., Design and implement data pipelines that process large volumes of data in both streaming and batc
2025-12-15 10:41:23Your responsibilities, Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability., Design and implement data pipelines that process large volumes of data in both streaming and batc
2025-12-15 10:41:23The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-15 09:56:05emagine PolskaPoland (Remote)Twój zakres obowiązków, Projektowanie, rozwój i utrzymanie rozwiązań danych w środowisku AWS, Budowa oraz optymalizacja procesów ETL/ELT z wykorzystaniem AWS Glue oraz Python, Tworzenie i zarządzanie kontenerami danych oraz integracjami..
2025-12-15 09:41:12Opublikowana 10:08:07. At Ledgy, we’re on a mission to make Europe a powerhouse of entrepreneurship by building a modern… Zobacz tę i więcej podobnych ofert pracy na LinkedIn
2025-12-14 07:52:01LedgyYour responsibilities, You will be responsible for designing, building, and maintaining our data infrastructure, ensuring data quality, and enabling data-driven decision-making across the organization., Design, build, and maintain our data..
2025-12-14 00:40:10The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 16:56:05ConnectisWarszawa 4,2The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 16:56:05SiiWarszawaThe first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 14:56:05MW ConsultingWrocławZakres obowiązków:\nProjektowanie i implementacja pipeline’ów danych, integrujących różne źródła danych\nTworzenie rozwiązań analitycznych we współpracy z data scientistami i analitykami\nRozwój skalowalnej architektury danych w chmurze MS
2025-12-13 14:56:05RITS Professional ServicesWrocławMust-have: 5+ years working experience as a Data Engineer experience in regulated financial services environment as well as commercial facing experience experience in designing and developing robust Data Pipelines using technologies such as Apac
2025-12-13 10:25:13NetguruRequirements: Experience in backend development using Golang. Knowledge of Machine Learning and integration with PLC systems and LLMs. Familiarity with AWS services, including Data Lake and cloud deployment. Understanding of IoT concepts and int
2025-12-13 10:25:13Experis Polska 5,0Requirements: Experience in backend development using Golang. Knowledge of Machine Learning and integration with PLC systems and LLMs. Familiarity with AWS services, including Data Lake and cloud deployment. Understanding of IoT concepts and int
2025-12-13 10:25:13Experis Polska 5,0Bardzo doba znajomość zasad inżynierii danych i doświadczenie w tworzeniu zaawansowanych pipeline’ów analitycznych Znajomość SQL oraz bardzo dobre umiejętności programowania w Pythonie lub Scali Doświadczenie z technologiami Big Data (Hadoop, Hi
2025-12-13 10:25:13Rits CenterWymagania Doświadczenie w pracy z hurtowniami danych w chmurze (preferowane Snowflake). Praktyka w projektach Data Quality (reguły DQ, walidacje, porównania danych). Bardzo dobra znajomość SQL. Biegłość w Snowflake (praca z danymi, monitorowanie
2025-12-13 10:25:13UpvantaExpectations Advanced proficiency in Databricks SQL (mandatory). Advanced proficiency in AWS S3 (recommended). Intermediate proficiency in Application Design, Design & Build Enablement, and Test Execution & Management. Experience in Agile method
2025-12-13 10:25:13Experis Polska 5,0Wymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-12-13 10:10:06DellArchitekt Danych / Architektka DanychTwój zakres obowiązków Projektowanie, rozwijanie i utrzymywanie architektury danych organizacji w sposób zapewniający spójność, bezpieczeństwo, dostępność i wysoką jakość danych w całym cyklu ich przetwarzani
2025-12-13 06:59:52COI - Centralny Ośrodek Informatyki 3,3Contract of EmploymentRemote work
2025-12-12 17:59:00Your responsibilities, Design, implement, and maintain data processing solutions in AWS and Azure environments., Build and optimize ETL pipelines and data integration workflows., Develop and maintain data pipelines using Azure Data Factory,..
2025-12-12 16:41:05Your responsibilities, Design and develop production ETL/ELT pipelines from diverse healthcare data sources, including claims, patient records, and referrals, into S3 data lakes and data warehouses., Implement and manage batch workflows with..
2025-12-12 16:41:04Twój zakres obowiązków, Budowanie i rozwijanie skalowalnych, działających w czasie rzeczywistym i wysokowydajnych rozwiązań typu Data Lake, Tworzenie pipeline’ów ETL w celu pozyskiwania danych z różnych źródeł i przetwarzania ich w chmurze,..
2025-12-12 16:41:04SII Sp z o oYour responsibilities, Leading the development of data infrastructure to extract, transform, and load (ETL/ELT) data., Supporting BI developers and data scientists to build data & analytics solutions., Working with product owners and (senior)..
2025-12-12 15:41:34Your responsibilities, Create scalable data pipelines and real-time processing solutions, Shape the project's data architecture from the beginning, Bring together data from a variety of sources (sensor data, e-commerce, weather feeds, third-part
2025-12-12 15:41:33Twój zakres obowiązków, Projektowanie i implementacja procesów monitorowania oraz poprawy jakości danych (reguły DQ, testy porównawcze)., Tworzenie struktur i przepływów wspierających audyt i kontrolę danych., Walidacja zgodności danych na..
2025-12-12 15:41:33Your responsibilities, Building and optimizing advanced analytics data pipelines using Python or Scala, ensuring efficient data ingestion and processing, Implementing scalable solutions with big data technologies such as Hadoop, Hive, or Spark t
2025-12-12 14:41:225+ years of experience in Python and strong software engineering skills Solid knowledge of AWS cloud services and best practices Experience building scalable Spark pipelines in PySpark or Scala Practical experience with Spark Streaming for low-l
2025-11-04 10:25:14Link GroupWhat you need to have to succeed in this role Excellent experience in the Data Engineering Lifecycle. You will have created data pipelines which take data through all layers from generation, ingestion, transformation and serving. Senior stakehol
2025-10-22 10:25:15HSBC Technology Poland