Senior Data Engineer
NAVLerøy Seafood Group ASA
📍 Bergen, Vestland
📂 IT
📅 Publisert 3 timer siden
Senior Data Engineer
NAVLerøy Seafood Group ASA
📍 Bergen, Vestland
📂 IT
📅 Publisert 3 timer siden
Stillingsbeskrivelse
Lerøy Seafood Group ASA er et globalt sjømatskonsern som kontrollerer hele verdikjeden fra egg eller fangst til ferdig produkt levert til forbruker. Dette gir unike muligheter til å påvirke utviklingen av verdikjeden og produktkategorier i samarbeid med strategiske sluttkunder over hele verden. Våre verdier, åpen, ærlig, ansvarlig og skapende ligger til grunn for alt vi gjør, og vi jobber hardt for å nå vårt mål om å utvikle verdens mest effektive og bærekraftige verdikjede for sjømat.
Vi har en ambisjon om å bli ledende på bruk av teknologi i sjømatbransjen, og sammen skal vi utvikle verdens mest effektive og bærekraftige verdikjede for sjømat gjennom bruk av digitalisering, teknologi og innovasjon. Gjennom dette arbeidet er en av ambisjonene å bli mer AI- og datadrevet. Vi har kommet godt i gang og trenger nå flere kloke hoder som vil være med på denne spennende reisen.
Vi har fått opp en sentral dataplattform i Databricks, og beveger oss nå over i fase der vi skal ta plattformen til nye høyder og utvikle nye dataprodukter sammen med forretningen.
Vi henter inn data fra drift av anlegg og fabrikker, økonomi og salg, biologisk planlegging, kamerabasert biomasse- og velferdsestimering, slaktekvalitet og laboratorieanalyser - og knytter alt dette sammen til sammensatte dataprodukter som kan brukes i rapportering, biologiske modeller og operasjonelle beslutninger.
Vi ser nå etter en Data Engineersom vil bygge, vedlikeholde og videreutvikle datapipelines - og som er nysgjerrig på å sette seg inn i de viktige dataene og faktorene som driver norsk oppdrett og sjømatnæring.
Viktige oppgaver
• Bygge og vedlikeholde datapipelines som tar data fra kildesystemer over til ferdige dataprodukter klare for analyse og rapportering
• Forstå og videreutvikle dataprodukter for å f.eks. spore fisken gjennom hele livssyklusen
• Bidra til pipelines som beregner biologiske KPIer, basert på sporbarhetstabeller og konfigurerbare vekstmodellkoeffisienter
• Hente data via ulike import-mønstre som filbasert, REST API, replikering fra SQL Server, IoT-strømmer osv.
• Sikre at data er av riktig kvalitet, at historikk håndteres riktig og at dataproduktene til enhver tid er pålitelige for analytikere og forretning
• Jobbe tett med biologer, økonomer, driftsansvarlige og analytikere for å forstå hva dataene betyr og hva som trengs for å svare på biologiske og operasjonelle spørsmål
Kvalifikasjoner
• Erfaring med og stor interesse for datamodellering og dataplattformer
• Solid erfaring med Python og PySpark for dataprosessering
• Erfaring med SQL og forståelse for dimensjonsmodellering (stjerneskjema, fakta- og dimensjonstabeller)
• Forståelse for ETL/ELT-mønstre
• Evne til å lese og forstå komplekse datamodeller og sette seg inn i nye kildesystemer
• Evne til å samarbeide tett med forretningen for å løse reelle problemer gjennom gode dataprodukter
• Sterke analytiske ferdigheter som gjør deg i stand til å oversette forretningsbehov til verdifulle dataprodukter
• Relevant høyere utdanning
Det er en fordel om du har
• Erfaring med håndtering av historikk og endringssporing i datamodeller
• Erfaring med infrastructure as code og CI/CD
• Kjennskap til havbruk, oppdrettsbiologi eller sjømatnæringen
Vi legger vekt på
• Nysgjerrighet og evne til å sette seg inn i komplekse domener, havbruksdata er ikke trivielt
• Ansvarsfølelse for datakvalitet - folk i hele konsernet tar beslutninger basert på tallene du produserer
• Samarbeidsevner på tvers av fagmiljøer (biologi, drift, analyse og IT)
• God kommunikasjon, du kan forklare hva dataene betyr og diskutere faglig med ikke-tekniske samarbeidspartnere
• Pragmatisme og gjennomføringskraft, evne til å levere godt nok raskt, og bra nok over tid
Vi tilbyr
• Stor grad av påvirkning på arbeid og retning
• Tett samarbeid med forretningen og anledning til å besøke anlegg for å forstå prosesser og hvordan data skapes i praksis
• Et nytt teknologimiljø under oppbygging
• Spennende problemstillinger i et bredt spekter av forretning (fra hav til bord)
• Læringsbudsjett og støtte til kurs, sertifiseringer og konferanser
• Konkurransedyktige lønnsbetingelser og gode pensjons- og forsikringsordninger
Søknadsfrist fredag 29. mars, intervjuer utføres løpende.
Vi ser frem til å høre fra deg, kontakt gjerne Kristian Flikka for spørsmål på telefon 95224952 eller e-post kristian.flikka@leroyseafood.com
Sjekk gjerne denne artikkelen for å lese litt om hvordan vi skaper verdi gjennom data og AI.
https://www.leroyseafood.com/no/om-leroy/nyheter/verdien-av-kunstig-intelligens-og-maskinlaring/?utm_source=Intranett+&utm_medium=Artikkel&utm_campaign=Kunstig_intelligens
Vi har en ambisjon om å bli ledende på bruk av teknologi i sjømatbransjen, og sammen skal vi utvikle verdens mest effektive og bærekraftige verdikjede for sjømat gjennom bruk av digitalisering, teknologi og innovasjon. Gjennom dette arbeidet er en av ambisjonene å bli mer AI- og datadrevet. Vi har kommet godt i gang og trenger nå flere kloke hoder som vil være med på denne spennende reisen.
Vi har fått opp en sentral dataplattform i Databricks, og beveger oss nå over i fase der vi skal ta plattformen til nye høyder og utvikle nye dataprodukter sammen med forretningen.
Vi henter inn data fra drift av anlegg og fabrikker, økonomi og salg, biologisk planlegging, kamerabasert biomasse- og velferdsestimering, slaktekvalitet og laboratorieanalyser - og knytter alt dette sammen til sammensatte dataprodukter som kan brukes i rapportering, biologiske modeller og operasjonelle beslutninger.
Vi ser nå etter en Data Engineersom vil bygge, vedlikeholde og videreutvikle datapipelines - og som er nysgjerrig på å sette seg inn i de viktige dataene og faktorene som driver norsk oppdrett og sjømatnæring.
Viktige oppgaver
• Bygge og vedlikeholde datapipelines som tar data fra kildesystemer over til ferdige dataprodukter klare for analyse og rapportering
• Forstå og videreutvikle dataprodukter for å f.eks. spore fisken gjennom hele livssyklusen
• Bidra til pipelines som beregner biologiske KPIer, basert på sporbarhetstabeller og konfigurerbare vekstmodellkoeffisienter
• Hente data via ulike import-mønstre som filbasert, REST API, replikering fra SQL Server, IoT-strømmer osv.
• Sikre at data er av riktig kvalitet, at historikk håndteres riktig og at dataproduktene til enhver tid er pålitelige for analytikere og forretning
• Jobbe tett med biologer, økonomer, driftsansvarlige og analytikere for å forstå hva dataene betyr og hva som trengs for å svare på biologiske og operasjonelle spørsmål
Kvalifikasjoner
• Erfaring med og stor interesse for datamodellering og dataplattformer
• Solid erfaring med Python og PySpark for dataprosessering
• Erfaring med SQL og forståelse for dimensjonsmodellering (stjerneskjema, fakta- og dimensjonstabeller)
• Forståelse for ETL/ELT-mønstre
• Evne til å lese og forstå komplekse datamodeller og sette seg inn i nye kildesystemer
• Evne til å samarbeide tett med forretningen for å løse reelle problemer gjennom gode dataprodukter
• Sterke analytiske ferdigheter som gjør deg i stand til å oversette forretningsbehov til verdifulle dataprodukter
• Relevant høyere utdanning
Det er en fordel om du har
• Erfaring med håndtering av historikk og endringssporing i datamodeller
• Erfaring med infrastructure as code og CI/CD
• Kjennskap til havbruk, oppdrettsbiologi eller sjømatnæringen
Vi legger vekt på
• Nysgjerrighet og evne til å sette seg inn i komplekse domener, havbruksdata er ikke trivielt
• Ansvarsfølelse for datakvalitet - folk i hele konsernet tar beslutninger basert på tallene du produserer
• Samarbeidsevner på tvers av fagmiljøer (biologi, drift, analyse og IT)
• God kommunikasjon, du kan forklare hva dataene betyr og diskutere faglig med ikke-tekniske samarbeidspartnere
• Pragmatisme og gjennomføringskraft, evne til å levere godt nok raskt, og bra nok over tid
Vi tilbyr
• Stor grad av påvirkning på arbeid og retning
• Tett samarbeid med forretningen og anledning til å besøke anlegg for å forstå prosesser og hvordan data skapes i praksis
• Et nytt teknologimiljø under oppbygging
• Spennende problemstillinger i et bredt spekter av forretning (fra hav til bord)
• Læringsbudsjett og støtte til kurs, sertifiseringer og konferanser
• Konkurransedyktige lønnsbetingelser og gode pensjons- og forsikringsordninger
Søknadsfrist fredag 29. mars, intervjuer utføres løpende.
Vi ser frem til å høre fra deg, kontakt gjerne Kristian Flikka for spørsmål på telefon 95224952 eller e-post kristian.flikka@leroyseafood.com
Sjekk gjerne denne artikkelen for å lese litt om hvordan vi skaper verdi gjennom data og AI.
https://www.leroyseafood.com/no/om-leroy/nyheter/verdien-av-kunstig-intelligens-og-maskinlaring/?utm_source=Intranett+&utm_medium=Artikkel&utm_campaign=Kunstig_intelligens
Stillingsdetaljer
- Kategori
- IT
- Sted
- Bergen, Vestland
- Arbeidstid
- Heltid
- Arbeidssted
- På arbeidsplass
- Ansettelsestype
- Fast stilling
- Publisert
- 3 timer siden
Om bedriften
L
Lerøy Seafood Group ASA
Andre stillinger innen samme område
Pedagogisk VikarSentral Bergen Assistent
Bergen, Vestland
Heltid
Nordic Care AS avd. Nordic Care - Bergen
Bergen, Vestland
Heltid
Psykiatrisk akuttmottak/ Seksjon PAM1, Helse Bergen HF
Bergen, Vestland
Heltid
Nordic Care AS avd. Nordic Care - Bergen
Bergen, Vestland
Heltid