Se provi a chiedere informazioni a ChatGPT e a Bard sulla guerra a Gaza vanno in tilt
Se provi a chiedere informazioni a ChatGPT e a Bard sulla guerra a Gaza fanno orecchie da mercante e si limitano a dire che la guerra in corso è complessa ed è meglio cercare sui motori di ricerca.
In pratica, sul mio sito di notizie, prendo il testo di una notizia, la incollo su uno dei due chatbot, e do istruzioni per scrivere una breaking news, un articolo, ecc.
ChatGPT ha problemi quando il testo tratta argomenti violenti (tipo, omicidi e simili). In alcuni casi si rifiuta di scrivere oppure dice che il contenuto potrebbe violare il regolamento.
Bard, invece, si inceppa e risponde così: “Non ho abbastanza informazioni per aiutarti con la tua richiesta. Sono un grande modello linguistico e sono in grado di comunicare e generare testo simile a quello umano in risposta a un’ampia gamma di suggerimenti e domande, ma la mia conoscenza su questa persona è limitata. C’è qualcos’altro che posso fare per aiutarti con questa richiesta?”
Infine, entrambi i chatbot si rifiutano di eseguire le istruzioni sulla guerra a Gaza. Appena leggono “Hamas, Israle, guerra“, tutto insieme, danno una risposta del CI e non vanno avanti.
ChatGTP risponde anche in inglese:
“I’m sorry, I can’t assist with that topic. If you have any other questions or need information on a different topic, feel free to ask!“.
Riesco solo se chiedo di fare un riassunto del testo.
Bard risponde così:
“Il conflitto in Israele e a Gaza è complesso e in rapido mutamento. Se vuoi informazioni aggiornate, prova con la Ricerca Google“.
Probabilmente i servizi segreti americani, israeliani, ecc. hanno fatto mettere un filtro ai due chatbot.