Facebook csoport

Naponta frissülő hírfolyam kizárólag olyan állásokkal, ahol a hirdető megadta a bérsávot.

Remote AI/LLM Backend Engineer

Seerio

Távmunka

1.5M – 1.9M HUF vállalkozói havonta+ÁFA

Elvárások

  • API
  • JSON
  • Node.js
  • Python
  • Express
  • FastAPI
  • PostgreSQL
  • REST API
  • React
  • TypeScript
  • LLM
  • OpenAI
  • Fastify
  • Lengyel
  • Angol

Előnyt jelentő készségek

  • RAG
  • intent classification
  • evals frameworks

A mi követelményeink

Eredeti szöveg. Fordítás megjelenítése

  • 3–6 lat doświadczenia backendowego, w tym min. 1-2 lata produkcyjnej pracy z LLM
  • Anthropic API (Claude) lub OpenAI: function calling, structured JSON output
  • Prompt engineering na poziomie systemowym – rozumiesz, że prompt wymaga wersjonowania i testowania
  • Node.js lub Python (Express/Fastify/FastAPI), PostgreSQL, REST API design, SOLID
  • Doświadczenie z integracjami między systemami – REST, webhooki, kolejki, obsługa niedoskonałych danych po stronie zewnętrznej
  • React/TypeScript na poziomie współpracy – czytasz kod, podpinasz API, debugujesz end-to-end
  • Polski i angielski – swobodna komunikacja w mowie i piśmie

Pozíció / projekt rövid leírása

Eredeti szöveg. Fordítás megjelenítése

O firmie:

Seerio to platforma analityczna dla rynku MICE (Meetings, Incentives, Conferences, Events). Obsługujemy ponad 500 hoteli największych sieci – Marriott, Radisson, IHG, Accor i innych. Na podstawie naszych danych hotele i sieci podejmują decyzje komercyjne w segmencie eventowym: pricing, prospecting, planowanie sprzedaży, alokacja przestrzeni.

O roli:

Budujemy Intelligence Layer – warstwę inteligentną nad platformą, która interpretuje dane za użytkownika. Problem, który rozwiązujemy: nasi klienci mają dostęp do najlepszych danych na rynku, ale nie mają czasu ani często kompetencji analitycznych, żeby je interpretować. Płacą za dashboard i nadal decydują intuicyjnie.

Intelligence Layer obejmuje: Intent Classifier (strategiczne / sprzedażowe / yield / operacyjne), deterministyczny Confidence Scoring, trójwarstwowy model forecastowy (DEF + OPT×Conversion + Expected Pickup), Gap-to-Client Matching rekomendujący klientów dla słabych okresów oraz Ask Seerio – konwersacyjny interfejs z kontekstem ekranu, pakietu i danych klienta.

Produkt wchodzi na produkcję w 2026 u aktywnych klientów. To nie PoC

Postawa wobec AI:

Używasz AI w codziennej pracy i potrafisz wskazać jego ograniczenia – halucynacje, context degradation, reasoning przy złym prompcie. Rozumiesz, kiedy LLM nie jest właściwym narzędziem, i umiesz uzasadnić wybór deterministycznej reguły. Potrafisz wytłumaczyć kod, który wdrożyłeś, nawet jeśli pomógł Ci go napisać model.

Mile widziane

RAG, intent classification, evals frameworks (Braintrust, Langfuse), doświadczenie z produktem domenowym.

Mile widziane:

  • RAG, intent classification, evals frameworks (Braintrust, Langfuse)
  • Doświadczenie z produktem domenowym (hotelarstwo, MICE, revenue management, BI/analytics)
  • Praca z pipeline’ami danych i modelami forecastowymi w produkcji

Kogo nie szukamy:

  • Osób, dla których AI jest magic boxem – bez zrozumienia mechanizmu pod spodem
  • Portfolio złożonego wyłącznie z wrapperów nad API, bez własnej logiki, bez evals
  • Kandydatów, którzy nie potrafią wyjaśnić kodu wygenerowanego przez model
  • Osób oczekujących pełnej specyfikacji do każdego kroku – pracujemy w warunkach, w których problem definiuje się w trakcie
  • Kandydatów szukających rozbudowanej struktury zespołowej i korporacyjnych procesów

Co oferujemy:

  • Warstwę AI projektowaną od zera w produkcie analitycznym używanym przez 500+ hoteli
  • Autonomię techniczną w swoim obszarze
  • Domenę – za rok będziesz wiedzieć o rynku MICE więcej niż większość developerów w Polsce
  • Realny wpływ na roadmapę
  • Pracę zdalną
  • Widełki: 18–23k PLN B2B

Aplikacja:

Prześlij CV, link do GitHub lub portfolio oraz jedno zdanie o projekcie produkcyjnym z LLM, który zaprojektowałeś – co to było, jaki problem rozwiązywało, co się nie udało.

Bez listu motywacyjnego.

Napi feladatok

Eredeti szöveg. Fordítás megjelenítése

  1. Twój core to warstwa AI: architektura promptów, klasyfikacja intencji, evals, zachowanie modelu na produkcji. Przy wdrażaniu funkcji czasem przejmujesz też backend — endpointy, integracje, dane. W razie potrzeby możesz liczyć na wsparcie zespołu po stronie backendu i integracji — nie zostawiamy tego na jednej osobie.
  2. Intelligence Layer — projektowanie i implementacja warstwy AI: prompty z output schema, Intent Classifier, Confidence Scoring Engine. Świadomie deterministyczny, nie ML.
  3. Ask Seerio Chat — architektura konwersacyjna z function calling, context injection per screen i pakiet, streaming, evals.
  4. Forecast Engine — model trójwarstwowy, cold start, confidence intervals. Praca z architekturą danych i logiką analityczną.
  5. Jakość LLM na produkcji — repeatable test suites, obsługa błędów modelu, wersjonowanie promptów, monitoring kosztów i latencji.
  6. Backend produktowy — endpointy obsługujące Intelligence Layer i Ask Seerio, refaktor istniejącego kodu, modelowanie danych w PostgreSQL pod nowe funkcje. Pracujesz w tej samej bazie kodu co reszta zespołu.
  7. Integracje i pipeline danych — utrzymanie i rozwój integracji z systemami klientów (PMS-y hotelowe, źródła danych sieciowych), obsługa anomalii w przychodzących danych, praca nad jakością i kompletnością danych zasilających modele forecastowe.
  8. Współpraca z frontem — kontrakty API z aplikacją React/TypeScript, debug end-to-end (czat, forecast view, panele rekomendacji). Nie piszesz UI, ale potrafisz go uruchomić, przejść flow i wskazać, gdzie problem jest po Twojej stronie, a gdzie po stronie klienta.
  9. Produkcja i niezawodność — własność uruchamianych funkcji po wdrożeniu: monitoring, reagowanie na incydenty w swoim obszarze, hotfixy. Nie mamy osobnego zespołu SRE.
  10. Współudział w decyzjach produktowych — rozmawiasz bezpośrednio z product designem i z założycielami. Często to Ty jesteś osobą, która mówi „to się da zrobić promptem”, „to wymaga reguły”, albo „to wymaga najpierw poprawienia danych”.

mutass kevesebbet

Specifikációk

  • Azonnali kezdés
  • Távmunka

A toborzási folyamat lépései

  1. Rozmowa telefoniczna (15 min) – dopasowanie i kontekst
  2. Rozmowa techniczna (60–90 min) – dyskusja o podejściu do LLM, evals, edge cases
  3. Zadanie techniczne do wykonania w domu – dla kandydatów, którzy pomyślnie przeszli rozmowę techniczną
  4. Rozmowa finalna – dopasowanie kulturowe i warunki + wspólne review zadania

JELENTKEZÉSHEZ KATTINTS IDE

Szeretnél bejutni az állásinterjúra?

Legyen olyan önéletrajzod, mellyel kitűnhetsz a többi jelentkező közül!

Ez is érdekelhet:

Kamionsofőr-Gépjárművezető (belföld, nemzetközi)

FRESH SPED Kft. Magyarország, Németország Nettó 800e - 1,0M Ft havibér + Prémium Feladatok Kamion sofőröket keresünk. 24 tonna teherbírású, ponyvás, nyerges kamionokra. Hetelős belföldi munka, egy fel- és lerakó. A sofőrnek rakodni nem kell. EUR6-os Volvo automata...

Service Delivery Manager (English & German speaking)

Deutsche Telekom IT Solutions Hungary Budapest, Debrecen, Pécs, Szeged20% irodai munkavégzés, 80% távmunka 1M – 1.5M HUF alkalmazotti havi bruttó Elvárások Szolgáltatások koordinációja Projektek operatív koordinációja Jó szervezési készség Prioritáskezelési készség...

Tálaló szakács

Vigadó Gasztronómia Kft. Vigadó tér - Budapest, Vigadó tér 2, 1051 Nettó 600e Ft havibér Feladatok Elkészült ételek precíz és esztétikus tálalása Szoros együttműködés a konyhai csapattal a gördülékeny szerviz érdekében A tálalópult és munkaterület tisztán és...