曾几何时,就像两年前的2021年,谷歌有限责任公司的母公司AlphabetInc.发誓要研究人工智能的伦理。好吧,谷歌已经存在一个致力于人工智能伦理的小组,他们涉足提供有关公司产品在道德上的良好程度的反馈。因此,在2023年3月之前——这标志着Bard向一个封闭的团体或个人发布——道德“委员会”努力说服谷歌Bard还没有完全准备好进行有限的推出。
然而,尽管如此,该公司仍按计划进行并发布了Bard,似乎唯一的目的是让现有的ChatGPT和微软的OpenAI成为竞争对手。这反过来又让道德小组士气低落,陷入混乱,因为许多关键人物很快就离开了谷歌。
谷歌放弃道德只是为了提前发布巴德吗?
彭博社报道称,谷歌似乎向巴德提供了低质量的信息,以便它可以早日公布。此信息得到一些经过检查但未指明的内部公司文件以及现有和前道德小组成员的话的支持。
大G自然不以为意。它声称道德仍然是巴德和人工智能的首要任务。这是有道理的,因为谷歌多年来一直犹豫不决涉足人工智能,正是因为道德困境。
然而,似乎是在竞争加剧的情况下,公司才改变其在方式上的整体立场。如果没有谷歌自己的研究,ChatGPT和OneAI——以及与此相关的任何其他人工智能——都不会存在,所以如果你为它种植原料,想要一块美味的馅饼是错误的吗?
谷歌的巴德:病态的说谎者还是快速学习者?
谷歌非常相信,在发布巴德之前,所有的安全检查都已经到位……作为一个实验而不是产品。这个标签是一种风险预防形式吗?如果是这样,我们怎么可能期待由上述实验支持的服务的众多功能,例如Docs、Slides、Gmail和YouTube——这些实际上是独立的产品?这合乎道德吗?
谷歌道德小组的回应是犹豫。犹豫要不要说出来和讨论,因为据报道他们收到了“你只是想放慢进程”的回应。道德是否已让位于商业投资?深思。_
在3月份发布Bard之前,谷歌在内部授予其员工访问AI的权限,以收集反馈。以下是Google员工对巴德的评价的一些片段:
病态的骗子
令人畏惧的
提供的建议将以灾难告终
“......比无用更糟糕:请不要发射”
不管怎样,谷歌推出了Bard。但这里有一个不同的观点:有限的但仍然是公共访问,是巴德学习和自我纠正的机会。毕竟,谷歌在算法方面是多产的,所以想象一个现实,所有这些都是让巴德学习和成长的真实计划的一部分,就像过去的ChatGPT所做的那样,是不是有些牵强?