NEVÍM jako pravidlo: Jak zastavit halucinace AI
Datum publikování: 6. 7. 2025
Umělá inteligence umí odpovídat rychle a přesvědčivě — i když nemá pravdu. Proto jsem si v personalizacích (ChatGPT, Perplexity) nastavil jasné pravidlo: „Nemám ověřené údaje, takže: NEVÍM.“ V Copilot to nejde, musí se to napsat.