Principali responsabilità:

  • Gestione e ottimizzazione dei database per garantire l'integrità, la sicurezza e l'accessibilità dei dati.
  • Progettazione e ottimizzazione di pipeline ETL scalabili.
  • Sviluppo e integrazione di soluzioni AI, utilizzando framework come Langchain.
  • Assicurare la qualità dei dati in coordinamento con i Data Scientist.

Requisiti:

  • Esperienza nella gestione e ottimizzazione dei database relazionali.
  • Eccellente padronanza di Python, conoscenza approfondita di SQL e R (nice to have).
  • Conoscenza dei framework API.
  • Esperienza nell'uso di strumenti di versioning come Git.
  • Competenza con tecnologie cloud, in particolare Google Cloud Platform (GCP).
  • Familiarità con framework AI come Langchain e altri strumenti e tecnologie correlati.
  • Interesse verso il mondo open source e familiarità con tecnologie e strumenti correlati.

Nice to Have:

  • Esperienza nella creazione di modelli di ML/AI, in particolare LLM.
  • Conoscenza dei principi di gestione e analisi dei dati spaziali (dati geolocalizzati).
  • Esperienza con altre tecnologie cloud come AWS e Azure.
  • Conoscenza di Kubernetes e containerizzazione con Docker.
  • Esperienza o interesse a lavorare con dati vettoriali per progetti AI.
  • Esperienza con Apache Superset o altri strumenti di Business Intelligence open source e commerciali.
  • Conoscenza di Apache Kafka, Apache NiFi e Apache Spark per applicazioni Big Data.

Remote

Roma

Candidati Ora