2025-02-22 14:04来源:本站
自从开放人工智能向世界推出ChatGPT以来,近600家媒体组织已经阻止了这项技术抓取他们的内容。
另外两个人工智能聊天机器人——谷歌人工智能的Bard和Common Crawl的CCBot——也被一些或大多数相同的新闻机构屏蔽。
路透社(Reuters)的新闻应用编辑本·威尔士(Ben Welsh)在自己的媒体博客上编写了一份关于新闻机构的调查报告。
威尔士说:“我们在这里看到的是,在我的调查中,至少有一半的新闻出版商希望在没有与开放人工智能公司进行某种对话或谈判的情况下,稍微停止这种做法,而不是让自己被纳入其中。”
ChatGPT的创造者Open AI在2023年8月向1153家新闻机构提供了屏蔽其聊天机器人的选项。截至周三,近一半的人接受了这一提议。
虽然大多数是美国机构,包括美国有线电视新闻网,但名单上也包括国际媒体集团,包括澳大利亚的ABC新闻,和。
威尔士的调查并没有深入挖掘阻止ChatGPT的原因,但他说,商业媒体往往是阻止ChatGPT的群体之一,而非营利组织更有可能分享内容。
美国之音试图通过领英、电子邮件和旧金山的办公室联系ChatGPT,但都没有成功。
被视为威胁
许多媒体分析人士和新闻自由组织认为,人工智能是对出版商和广播公司的威胁,也是对新闻伦理的威胁。
主要担忧之一是利用人工智能制造虚假叙事和虚假视觉效果,并放大错误信息和虚假信息。
无国界记者组织(Reporters Without Borders,简称RSF)的技术部门负责人文森特·贝尔蒂埃(Vincent Berthier)说,“很明显,一些团体或组织可能会利用并调整模型,来制造适合其项目或目的的量身定制的虚假信息。”“但现在,今天,虚假信息的更高风险来自图片和深度伪造的生成人工智能。”
无国界记者组织了一个由32名新闻和人工智能专家组成的委员会,由诺贝尔奖获得者、虚假信息专家玛丽亚·雷萨(Maria Ressa)领导,负责规范媒体如何使用这项技术。
由此产生的《关于人工智能和新闻的巴黎宪章》于11月发布,为新闻机构使用人工智能设定了参数,并明确指出记者必须发挥主导作用。
RSF的Berthier认为,许多选择退出的组织正在向人工智能开发者发出一个明确的信息。
“媒体公司所说的是,没有我们就不会有人工智能,这正是无国界记者组织在这个话题上的立场,”伯蒂埃说。“这是我们本月发布的宪章的精神,即媒体和新闻业应该成为人工智能治理的一部分。”
Berthier说,媒体自由已经受到大型科技公司和社交媒体算法的威胁。
他说:“这就是为什么我们每天都在为保护新闻自由而斗争,只是为了确保记者仍然能够履行职责,向公众提供最准确的信息。”
今年7月,美联社与OpenAI签署了一项新闻内容和信息共享协议。
麦克阿瑟研究员、加州大学伯克利分校(University of California-Berkeley)法学教授和信息技术专家帕梅拉?萨缪尔森(Pamela Samuelson)表示,这笔交易可能只是人工智能与新闻业之间许多许可协议和合作伙伴关系的开始。
但她也预测,企业将努力开发自己的人工智能。
萨缪尔森说:“所以可能会这样做,CNN可能会这样做,我们只是不知道。”“他们要么宣布自己的衍生产品,要么就把它留在家里。”
伦理问题
随着关于在新闻领域使用人工智能的争论愈演愈烈,许多新闻机构和记者对人工智能的使用提出了道德担忧和保留意见。
其他人则提到了经济因素,例如使用他们的版权材料和独特的知识产权而不付款或出处。
但是,萨缪尔森说,“对厄运、厄运、厄运的预测可能被夸大了。”
“预测一切都会很完美,这可能也是错误的,”她补充说。“我们必须找到某种新的平衡。”
生成式人工智能可以编写计算机代码、创作艺术、进行研究,甚至撰写新闻文章。但制造商在免责声明中普遍承认,其可靠性和准确性存在问题。
研究人员也越来越担心,依赖生成式人工智能来生产和获取新闻和信息的现象正在蔓延,而且发布的信息往往不可靠或不准确。
威尔士说:“新闻界把准确性放在首位,这是这些工具的一个弱点。”“尽管他们在创造力和产生各种有趣的结果方面非常出色,但他们努力做到的一件事是正确获取事实。”
一些人工智能分析人士和观察人士表示,越来越多的新闻机构屏蔽人工智能机器人,可能会进一步影响新闻质量。