<div dir="ltr">[Moderator's comment: This article calls to mind Ruiz's (1984) observation that orientations to language "determine what is thinkable about language in society."]<br><br>Gizmodo<br><br>Researchers Say AI Is Homogenizing Human Expression and Thought<br><br>The result of interacting with models that significantly favor certain perspectives, though, is that humans then start to internalize and reflect those perspectives. This can be as simple as a person using a chatbot to polish their writing and remove some of their stylistic choices, but previous research has shown that interacting with LLMs can actually shift the way people think to be more in line with the information being provided to them by a chatbot. LLMs also use chain-of-thought reasoning, which reflects a linear form of thinking. They are incapable of more abstract styles of reasoning that may require leaps in logic that are not obvious but can be very effective.<br><br>Full story:<br><a href="https://gizmodo.com/researchers-say-ai-is-homogenizing-human-expression-and-thought-2000732610">https://gizmodo.com/researchers-say-ai-is-homogenizing-human-expression-and-thought-2000732610</a></div>