1月14日消息,纽约大学的研究揭示了大型语言模型在医学信息训练中的潜在风险。研究发现,即使训练数据中仅含有0.001%的错误信息,也可能导致模型输出不准确的医学答案。研究团队使用“The ...