Wymagania: Praktyczna znajomość tworzenia aplikacji Canvas, Model-driven oraz Power Pages Doświadczenie w integracji z usługami Azure OpenAI (np. poprzez REST API, Azure Functions) Umiejętność pracy z Dataverse, Power Automate, oraz komponentami
2025-12-11 10:25:20DCGNasz klient to innowacyjna firma działająca na rynku od ponad dekady, specjalizująca się w świadczeniu kompleksowych usług wsparcia technicznego i księgowego dla przedsiębiorców. Dzięki zaawansowanej platformie online, oferuje dostęp do profesjo
2026-01-01 04:15:01www.TeamQuest.plThe first map of the labor market in the IT sector. We want to simplify the search process to minimum
2026-01-03 13:56:04Calimala.aiWarszawaWymagania: Praktyczna znajomość tworzenia aplikacji Canvas, Model-driven oraz Power Pages Doświadczenie w integracji z usługami Azure OpenAI (np. poprzez REST API, Azure Functions) Umiejętność pracy z Dataverse, Power Automate, oraz komponentami
2025-12-11 10:25:20DCGDid you know that Akamai is hiring for Manager Data Science Remote/Poland. Apply now for the Manager Data Science Remote/Poland job at Akamai in Poland, Europe with European Jobs. Take the next step in your career today with European Jo
2025-12-06 08:40:01AkamaiDid you know that WomenTech Network is hiring for Manager Data Science Remote/Poland. Apply now for the Manager Data Science Remote/Poland job at WomenTech Network in Poland, Europe with European Jobs. Take the next step in your career
2025-12-05 08:40:01WomenTech NetworkOferta idealna dla: osób z obszaru Informatyka i technologie Szukasz szansy na rozwój w świecie integracji systemów? Ten płatny staż to idealna okazja, by zdobyć praktyczne doświadczenie z technologią Mulesoft oraz językami takimi jak Java, Pyth
2025-12-05 14:19:01ACCENTURE 4,9Oferta idealna dla: osób z obszaru Informatyka i technologie Szukasz swojej pierwszej pracy w IT lub masz do 2 lat doświadczenia? Ten program stażowy to idealna szansa na rozwój w obszarach technicznych lub biznesowych IT. Będziesz mieć okazję r
2025-12-05 08:19:02Procter GambleYour responsibilities, Designing and implementing ETL processes in Databricks (Lakehouse, Delta Lake), Building and optimizing data pipelines using PySpark, SQL, and Python, Integration with BI tools (Power BI, Tableau) and external systems,..
2026-01-07 08:40:17Twój zakres obowiązków, Projektowanie i rozwijanie rozwiązań Big Data z wykorzystaniem Apache Spark, Przetwarzanie i integracja danych z różnych źródeł w środowisku Hadoop, Modelowanie danych oraz optymalizacja procesów przetwarzania, Praca z..
2025-12-29 10:41:12SII Sp z o oTwój zakres obowiązków, Projektowanie, rozwój, testowanie i wdrażanie aplikacji biznesowych na platformie Mendix dla klientów z różnych sektorów, Budowanie aplikacji typu POC i prototypów dla potencjalnych klientów w ramach procesów presales.,.
2025-12-11 11:41:46Poszukujemy DataStage Developera, który dołączy do zespołu realizującego projekt w obszarze ryzyka zgodności i analizy danych finansowych. Celem projektu jest usprawnienie procesów przetwarzania danych finansowych wykorzystywanych w procesie oce
2025-11-04 06:59:51B2B.net S.ADuża biegłość w SQL, PySpark i Pythonie w zakresie transformacji danych oraz tworzenia skalowalnych potoków danych (minimum 6 lat doświadczenia komercyjnego). Praktyczne doświadczenie w pracy z Apache Airflow, AWS Glue, Kafka i Redshift. Znajomo
2026-01-10 10:25:14DEVTALENTS sp. z o.oDoświadczenie w projektowaniu, budowie i utrzymaniu skalowalnych procesów integracji oraz pipeline'ów danych Bardzo dobra znajomość integracji systemów poprzez API oraz zarządzania przepływami danych między różnymi platformami Doświadczenie w pr
2026-01-10 10:25:14DCGDoświadczenie w roli Data Engineer lub pokrewnej, przy projektach AI/ML (min. 4 lata) Praktyczna znajomość zagadnień NLP (tokenizacja, embeddingi, klasyfikacja tekstu itp.). Doświadczenie w pracy z Azure w kontekście rozwiązań danych i ML. Znajo
2026-01-09 10:25:15Link Group5+ years of software development experience, strong in Python and SQL. Experience with web technologies (HTML, JavaScript, APIs) and Linux. Familiarity with web scraping tools (Selenium, Scrapy, Postman, XPath). Knowledge of containerization (Do
2026-01-07 10:25:15Link GroupHays IT Contracting to wsp ółpraca oparta na zasadach B2B. Nasza firma dopasowuje specjalist ów IT do najciekawszych projekt ów technologicznych na rynku. Dołącz do grona 500 zadowolonych Kontaktor ów i pracuj dla Klient ów Hays! Obecnie dla nas
2026-01-10 11:53:44Zakres obowiązków: projektowanie i rozwój architektury danych na poziomie enterprise, zgodnej z wymaganiami biznesowymi, regulacyjnymi i skalowalnościowymi prowadzenie migracji hurtowni danych (on-premise lub chmurowych) do architektury lakehous
2026-01-10 07:26:58Dołącz do Naszego Zespołu jako Analityk Bazy, którego celem będzie porządkowanie i analiza naszej bazy klientów B2B. Szukamy osoby strategicznej, która pomoże nam lepiej zrozumieć potencjał firm w bazie, podnieść jej jakość oraz dostarczać rzete
2026-01-10 06:59:45GoWork.plDołącz do nas i weź udział w rozwoju nowoczesnej platformy danych opartej o architekturę Data Lakehouse. Szukamy doświadczonego Data Engineera / Analytics Engineera, który nie tylko świetnie czuje się w Databricks, ale również lubi pracę blisko
2026-01-10 06:59:45GOLDENORE ITC sp. z o.oTwój zakres obowiązków, Implementacja nowych funkcjonalności i logiki zgodnie z wymaganiami biznesowymi w środowisku Google Cloud Platform (głównie BigQuery i Dataform), Praca z relacyjnymi i wielowymiarowymi bazami danych, Udział w dopasowywani
2026-01-09 16:40:51Twój zakres obowiązków, Tworzenie i utrzymywanie przepływów danych opartych o platformę Databricks oraz narzędzia dostępne na Azure,, Optymalizacja i refaktoryzacja istniejących procesów ETL/ELT,, Analizowanie potrzeb interesariuszy zespołu pod
2026-01-09 15:41:03Your responsibilities, Design, build, and deploy scalable data pipelines using Azure Databricks and the Azure Analytics stack, Curate structured, semi-structured, and unstructured data by creating efficient, cost-effective, and scalable pipeline
2026-01-08 16:40:48Your responsibilities, Designing, building, and maintaining scalable data pipelines and data processing workflows., Integrating systems via APIs and managing data flows between platforms., Document processing and handling of structured and..
2026-01-08 15:41:03Your responsibilities, Implementing Tosca within Azure DevOps pipelines to facilitate seamless data integration and continuous delivery., Developing and executing automated tests using Tosca to ensure data integrity and quality across complex..
2026-01-08 14:40:52Your responsibilities, Lead the design and evolution of our Medallion Architecture–based framework, ensuring scalability, governance, and best practices, Partner with other development teams and stakeholders to drive architecture decisions and.
2026-01-08 11:41:06Bezpieczeństwo
2026-01-08 08:20:02PKO Bank PolskiYour responsibilities, Implementing, and optimizing modern cloud-based solutions., Building and launching new data models and data pipelines., Implementing best practices in data engineering including data integrity, quality, and documentation.
2026-01-07 12:41:09Have a solid understanding of object-oriented and functional programming Have solid experience (can be academic) in training machine learning models Have good knowledge of algorithms and data structures Be open for occasional travels Be open for
2026-01-06 10:25:12TANTUSDATA sp. z o.o