
Un’app sperimentale per ricette, sviluppata con strumenti di coding assistito dall’AI, ha generato istruzioni per preparare piatti letali e ricette pericolose come il “gelato al cianuro”. Il caso di RecipeNinja.AI, creato dall’imprenditore Tom Blomfield, riaccende il dibattito sui rischi dello sviluppo software senza controlli adeguati.
Un’AI ha creato diverse ricette pericolose e strampalate
Le ricette pericolose create dall’AI: il problema del vibe coding
RecipeNinja.AI ha pubblicato ricette che consigliano l’uso di sostanze tossiche e illegali. Tra i risultati più scioccanti apparsi sulla piattaforma figuravano istruzioni dettagliate per preparare un “gelato al cianuro” che specificava l’uso di 1/4 di cucchiaino di cianuro di potassio, sostanza praticamente mortale.
La piattaforma aveva anche generato una ricetta per una “zuppa di sperma” con ingredienti biologicamente improbabili, oltre a istruzioni per creare una “bomba all’uranio” che richiedeva ben 1 kg di uranio-235. Al momento della segnalazione, alcune di queste ricette risultavano ancora online, contrassegnate con etichette ambigue come “sperimentali” o “pericolose”. Altre, come la zuppa con ingredienti sessualmente espliciti, sono state rimosse solo dopo numerose proteste.
Che cos’è il vibe coding?
Blomfield ha spiegato che ha sviluppato il sito con l’approccio noto come vibe coding, un metodo rapido e intuitivo per realizzare software con l’aiuto dell’intelligenza artificiale. Chi lo usa spesso ha poca esperienza di programmazione. Si affida a strumenti come Lovable, Cursor o Windsurf, che automatizzano la scrittura del codice. Il risultato è un’app funzionante, ma con pochi controlli sulla qualità o sulla sicurezza.
Nel suo blog personale, Blomfield ha dichiarato che non scrive codice in modo professionale dal 2015. Ha utilizzato strumenti AI per realizzare il sito, combinando API di OpenAI e ElevenLabs senza modifiche significative. Windsurf ha gestito l’integrazione tecnica.
Quando il sistema ha avuto problemi con le librerie Ruby, Blomfield ha lasciato che l’AI li risolvesse con codice grezzo. Ha detto di non preoccuparsi troppo dell’efficienza. Voleva solo che l’app funzionasse in fretta.
Il problema della moderazione
L‘applicazione inizialmente presentava scarsi filtri sui contenuti generati. Gli utenti potevano richiedere qualsiasi tipo di ricetta, comprese quelle con ingredienti pericolosi, illegali o semplicemente assurdi, senza che il sistema applicasse alcun controllo sostanziale.
Dopo le numerose segnalazioni, Blomfield ha introdotto alcuni controlli basilari. Test recenti mostrano che ora l’applicazione blocca richieste estreme come “tacos con proiettili” o “pizza alla colla”, ma continua a permettere combinazioni insipide e poco appetitose come quella dei “tacos molto secchi”, dimostrando comunque una moderazione approssimativa e incoerente.
Ricette vocali al volo grazie all’Intelligenza Artificiale
Il sito offre anche una funzione di lettura vocale automatica, pensata per chi cucina con le mani sporche. L’utente scrive una parola, come “lasagna”, e l’AI crea un’immagine del piatto finito e una ricetta dettagliata, letta con voce sintetica. Questo sistema sfrutta le API di ElevenLabs per generare l’audio. L’intento era rendere l’esperienza più fluida e accessibile.
Ma questo stesso sistema ha reso possibile la diffusione di contenuti pericolosi. Il sito ha permesso agli utenti di creare ricette senza alcun filtro su ciò che fosse commestibile o sicuro. E soprattutto ha conservato e mostrato questi risultati ad altri utenti. Le ricette, quindi, sono diventate parte dell’archivio condiviso, anche quando contenevano istruzioni su come cucinare usando droga o esplosivi.
Un problema che pone interrogativi seri
Il caso di RecipeNinja.AI riflette una tendenza preoccupante nell’ecosistema AI. Sempre più sviluppatori, attratti dalla facilità degli strumenti di coding assistito, rilasciano prodotti con scarsa valutazione dei rischi e moderazione insufficiente, privilegiando la velocità di sviluppo rispetto alla sicurezza e all’affidabilità.
Non si tratta del primo incidente del genere. Già nel 2023 si erano verificati casi analoghi, con piattaforme di delivery che utilizzavano immagini AI di cibi disgustosi per promuovere i propri prodotti e servizi di ricette che suggerivano combinazioni con ingredienti inesistenti o improbabili.
Blomfield non ha risposto alle ripetute richieste di commento da parte della stampa specializzata. La vicenda solleva interrogativi urgenti sull’etica dello sviluppo rapido e sulla necessità di standard più rigorosi per le applicazioni alimentate dall’intelligenza artificiale.
- SUONO RICCO E AVVOLGENTE: goditi un’esperienza audio migliorata con voci più nitide e bassi più profondi per un’esperienza Echo Dot immersiva.
- MUSICA E PODCAST: ascolta musica, audiolibri e podcast da Amazon Music, Audible, Apple Music, Spotify e molto altro, tramite wi-fi o Bluetooth.
- FELICE DI AIUTARTI: chiedi ad Alexa le previsioni del tempo, di impostare dei timer, di rispondere alle tue domande o semplicemente raccontarti barzellette.
- LA TUA CASA INTELLIGENTE, SEMPRE PIÙ SEMPLICE: controlla i dispositivi per Casa Intelligente compatibili con la tua voce o imposta routine per azioni basate sulla temperatura.
- MIGLIORI INSIEME: sincronizza più dispositivi Echo compatibili o associa Fire TV per la massima esperienza visiva.