<div dir="ltr">MIT News<br><br>Researchers discover a shortcoming that makes LLMs less reliable<br><br>Large language models can learn to mistakenly link certain sentence patterns with specific topics — and may then repeat these patterns instead of reasoning.<br><br>Full story:<br><a href="https://news.mit.edu/2025/shortcoming-makes-llms-less-reliable-1126">https://news.mit.edu/2025/shortcoming-makes-llms-less-reliable-1126</a></div>