<div dir="ltr"><div>Dear Colleagues,</div><div><br></div><div>Here is another recent story that resonates with AI as de facto language policy.</div><div><br></div><div>Best,</div><div>Francis</div><div><br></div><div><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>--</div><div><font size="2"><b>Francis M. Hult, PhD, FRGS</b> </font><font size="2"><span>|</span></font><b> </b>Professor</div><div>Department of Education</div><div>University of Maryland, Baltimore County (UMBC)</div><div><br></div><div>Editor, <a href="https://www.springer.com/series/5894" target="_blank">Educational Linguistics Book Series</a> <br></div><div>Co-Editor, <a href="https://www.degruyter.com/view/serial/16644" target="_blank">Contributions to the Sociology of Language Book Series</a></div><div></div><div><br></div><div><a href="https://education.umbc.edu/faculty-list/francis-m-hult/" target="_blank">Web Profile</a> <span>|</span> <a href="http://umbc.academia.edu/FrancisMHult" target="_blank">Academia.edu</a> | <a href="https://scholar.google.com/citations?user=2x7pOMwAAAAJ&h" target="_blank">Google Scholar</a> | <a href="http://tesol.umbc.edu/" target="_blank">TESOL@UMBC</a></div><div><br></div><div style="text-align:left"><img src="https://ci3.googleusercontent.com/mail-sig/AIorK4x6A7feW5AMw0k8d_RBIpmS7TpRdADyhZH2v4Hke0FycOyMXDENqrYd7BuX5J3H6O_RGuDmWJw" width="62" height="96"></div><div style="text-align:left"><br></div><div style="text-align:left"><br></div><div style="text-align:left">Nature<br><br>How ChatGPT and other AI tools could disrupt scientific publishing<br><br>[T]he way in which LLMs are developed might exacerbate inequities, says Chhavi Chauhan, an AI ethicist who is also director of scientific outreach at the American Society for Investigative Pathology in Rockville, Maryland. Chauhan worries that some free LLMs might become expensive in the future to cover the costs of developing and running them, and that if publishers use AI-driven detection tools, they are more likely to erroneously flag text written by non-native English speakers as AI. A study in July found this does happen with the current generation of GPT detectors4. “We are completely missing the inequities these generative AI models are going to create,” she says...<br><br>If scholars start to rely on LLMs, another concern is that their expression skills might atrophy, says Gemma Derrick, who studies research policy and culture at the University of Bristol, UK. Early-career researchers could miss out on developing the skills to conduct fair and balanced reviews, she says.<br><br>Full story:<br><a href="https://www.nature.com/articles/d41586-023-03144-w">https://www.nature.com/articles/d41586-023-03144-w</a></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>