Marco Valleri Relatore

Ho cominciato a occuparmi di security alla fine degli anni '90, scambiando conoscenze con gli amici di Antifork e delle altre bandacce che c'erano all'epoca in Italia, con il nickname Naga. Nei primi anni 2000 ho creato il progetto open source "ettercap" insieme al mio compagno di giochi Alor e, sempre con lui, ho cominciato a parlare di netowrk attacks a varie conferenze in giro per il mondo. Sempre nello stesso periodo, per pagare il carissimo affitto a Milano, ho fatto tantissimi penetration test per le realtà più disparate. Negli anni '10 mi sono guadagnato il titolo di "enemy of the internet" scrivendo strumenti di offensive security per una nota società italiana del settore, su cui non mi dilunghero' ;) Mi sono poi occupato di blockchain analysis e cryptovalute con la mia prima startup Neutrino e, ormai da un po' di anni, sono totalmente focalizzato sul dirompente fenomeno dell’AI.
  • Skynet: Come l'AI (forse) conquisterà il mondo! i recenti progressi nell'ambito dell'ai generativa hanno reso i large language models (LLM) uno strumento ormai imprescindibile per molti. date le enormi potenzialità di questi modelli è emersa la necessità di allineare il loro comportamento con i valori di noi esseri umani, per evitare che gli llm agiscano in maniera non etica o pericolosa. Vedremo insieme come è perchè funzionano queste "barriere di sicurezza", e quali sono le tecniche più sofisticate per aggirarle. Daremo infine uno sguardo ad una metodologia per testare in maniera sistematica la resistenza a questo tipo di attacchi da parte dei modelli allo stato dell'arte (OpenAI, Anthropic, etc.) - 15:15/16:00, 16 Nov 2024
  • Domande ai relatori Facciamo due chiacchere con i relatori di questa edizione! - 16:00/16:30, 16 Nov 2024