Principali responsabilità:
- Gestione e ottimizzazione dei database per garantire l'integrità, la sicurezza e l'accessibilità dei dati.
- Progettazione e ottimizzazione di pipeline ETL scalabili.
- Sviluppo e integrazione di soluzioni AI, utilizzando framework come Langchain.
- Assicurare la qualità dei dati in coordinamento con i Data Scientist.
Requisiti:
- Esperienza nella gestione e ottimizzazione dei database relazionali.
- Eccellente padronanza di Python, conoscenza approfondita di SQL e R (nice to have).
- Conoscenza dei framework API.
- Esperienza nell'uso di strumenti di versioning come Git.
- Competenza con tecnologie cloud, in particolare Google Cloud Platform (GCP).
- Familiarità con framework AI come Langchain e altri strumenti e tecnologie correlati.
- Interesse verso il mondo open source e familiarità con tecnologie e strumenti correlati.
Nice to Have:
- Esperienza nella creazione di modelli di ML/AI, in particolare LLM.
- Conoscenza dei principi di gestione e analisi dei dati spaziali (dati geolocalizzati).
- Esperienza con altre tecnologie cloud come AWS e Azure.
- Conoscenza di Kubernetes e containerizzazione con Docker.
- Esperienza o interesse a lavorare con dati vettoriali per progetti AI.
- Esperienza con Apache Superset o altri strumenti di Business Intelligence open source e commerciali.
- Conoscenza di Apache Kafka, Apache NiFi e Apache Spark per applicazioni Big Data.