发表: 11月. 6, 2023 By

人们对ChatGPT生成复杂而独特的文本的能力感到震惊,这些文本很难与人类写作区分开来, 2020). ChatGPT在两个月内获得了1亿用户(经济时报), 2023年),并成为历史上增长最快的消费应用, 许多人觉得人工智能的发展是突然出现的,不得不预测人工智能的末日. 例如, 像Politico这样可信的新闻来源, 纽约邮报, 《博彩平台推荐》(华盛顿邮报)也发布了类似《博彩平台推荐》(罗伯逊)的标题, 2023); “Rogue AI ‘could kill everyone,科学家警告说,ChatGPT热潮正在猖獗, 2023); and “Opinion | ChatGPT might be the end of civilization” (Leibbrand, 2023).

许多人面临的另一个紧迫问题是“人工智能会取代我的工作吗??“首先, 涉及数据处理的白领工作, 写文本, 甚至编程也很可能受到影响. 但要回答这个问题,我认为有两种可能:可能是,也可能不是. 山姆奥特曼, OpenAI首席执行官, 倡导全民基本收入(AI 新闻 Base), 2023年),这让博彩平台推荐认为他认为答案是, “是的.“另一方面,受影响并不一定意味着取代. 而不是人工智能取代律师, 这可能意味着与人工智能合作的律师将取代不与人工智能合作的律师. (约翰·奥利弗,2023).

然而,询问人工智能是否会接管工作是没有成效的. 来弄清楚博彩平台推荐应该用人工智能做什么, 博彩平台推荐必须问这个问题, “在人工智能时代,人类意味着什么?“在博彩平台推荐讨论这个问题之前, 让博彩平台推荐首先更好地理解ChatGPT到底是什么.

ChatGPT:更深入的探索

人工智能研究始于20世纪50年代,但它的表现不是很显著. 直到最近. 在大型语言模型(llm)被输入数十亿个参数(来自互联网的文本和图像)之后,, 法学硕士们终于表现出了聪明的行为. ChatGPT是法学硕士, 它就像一个巨大的剪贴簿,由一大堆来自互联网的文本片段创建而成,然后根据需要粘合在一起, 2020). ChatGPT在智能方面的加速是出乎意料的. 2022年,OpenAI的GPT-3.5人在律师考试中只取得了10%的成绩, 但, 不到一年, GPT-4得分在第90百分位. 然而,ChatGPT并不是真正的智能. 

有两种类型的AI:狭义的和一般的. 狭义人工智能只能执行一项定义的任务,而通用人工智能在一系列认知任务中表现出智能行为. 通用AI的一个例子是J.A.R.V.I.S来自钢铁侠.

ChatGPT的唯一任务是生成文本,所以生成式人工智能目前是狭隘的. Mr. 奥特曼的最终目标是实现通用人工智能. 在最近的采访中, 他说,通用人工智能给人类带来的好处“好得令人难以置信,我甚至很难想象。.“然而, 要谨慎地相信他的话,因为他也提到一般的人工智能可以杀死博彩平台推荐所有人(卢斯), 2023).

ChatGPT当前的局限性

不管ChatGPT看起来如何,它都明白自己在说什么, 博彩平台推荐必须注意到,它实际上并没有. 当提示输入来源时,它会提供不存在的虚假文章. 这是由于LLM的学习的可能性:当被要求提供来源, 它产生了一个非常像人类会为该主题写的标题. 引人注目的是, 吐出虚假信息的人工智能叫做产生幻觉(约翰逊), 2022), 这给公共利益带来了严重的问题. 因为每个人都在使用ChatGPT,但没有意识到这个限制, 博彩平台推荐会相信虚假的信息. 此外, GPT-4能够使虚假事实比早期的GPT模型更有说服力和可信度. 因此, 当用户过度信任模型时,就会出现过度依赖, 导致监管不足(OpenAI), 2023).

正如这位推特和ChatGPT用户所指出的那样, 博彩平台推荐应该意识到,如果不仔细检查,ChatGPT可能会产生误导. 

可以解释一些限制,但ChatGPT内部究竟发生了什么尚不清楚. 开发人员并不完全了解大量数据是如何联系在一起的, 他们也无法解释ChatGPT的独特结果是如何得出的. 除了, 开发人员无法解释为什么互联网扩展允许ChatGTP的智能行为出现. 这就像一个黑盒子. 博彩平台推荐可以看到人工智能产生的反应(方框), 但博彩平台推荐无法看到系统是如何做出决定的(盒子里发生了什么). 所以让我担心的是,这里发生了一个黑匣子问题, 但是开发人员继续创建更多的黑盒,因为他们发布了更多用于非语言处理问题的llm,如预测蛋白质结构, 2023). 法学硕士正在推动科学发展,这是件好事, 但如果博彩平台推荐能跟进并理解法学硕士们是如何推导他们的预测的,那就更有益了. 

因为ChatGPT从数十亿个参数中学习, 它的规模也使OpenAI更难测试每个单独的测试用例. 例如, 据观察,GPT-4-early存在严重的安全挑战,包括有害内容和隐私问题(OpenAI), 2023). 故意试探可能会导致自我伤害的建议, 可恶的内容, 策划暴力内容, 以及查找非法内容的说明. 除了, 如果用户拥有外部数据,那么GPT-4-early有可能被用于识别具有大量在线存在的个人,然后将其提供给GPT-4-early (OpenAI), 2023). 在未经同意甚至不知情的情况下识别某人的身份,会引发严重的隐私问题. 

OpenAI实施了安全措施来缓解这些挑战, 但是再一次, 他们很可能永远不会捕获所有的测试用例, 因此, 永远不能为他们创造保护措施. 然而,创建安全措施也可能存在问题. 在ChatGPT等系统中过滤有害言论的尝试可能会以减少对边缘群体文本的覆盖为代价(Welbl等人)., 2021)本质上, 这一保障措施通过消除少数民族来解决种族主义问题, 哪一个, 从历史上看, 没有把它放在最好的公司里(奥利弗), 2023). 诚实, 限制的清单还在继续, 但大型科技公司继续推出更多用于商业用途的法学硕士. 这是不计后果的行为,严重威胁公共安全. 

硅谷的不负责任 

甚至提前发布ChatGPT的决定也是轻率的. OpenAI最初的计划是在完成全面测试后发布GPT-4. 但在GPT-4准备好之前, 该公司高管敦促员工尽快向公众发布聊天机器人. 他们担心竞争对手可能会推出自己的A.I. 据了解OpenAI的人士称,GPT-4之前的聊天机器人. 因此,他们决定重新开发并更新基于GPT-3的未发布聊天机器人, 该公司以前的语言模型, 创建GPT-3.(卢斯,2023).

显然GPT-3.5没有经过适当的测试,因为它是在两周内发布的. GPT-3.5 .仍然产生偏见, 性别歧视的, 还有种族主义文本, 但OpenAI想成为第一个, 可能是为了钱和权力. 如果这是他们提前发布的目标,那么他们实现了. 由于ChatGPT的存在,OpenAI现在是硅谷最有影响力的公司之一. 该公司最近与微软(Microsoft)达成了一项价值100亿美元的协议,并与BuzzFeed达成了另一项协议. 此外,Mr。. 奥特曼曾与苹果和谷歌的高管会面(卢斯,2023年)。. OpenAI的使命宣言称,他们将“确保人工通用智能……造福全人类”,并确保生成模型是安全的,并与人类价值观保持一致, 2023), 但该公司似乎变得过于以利润为导向, 破坏其原始精神.

然而, ChatGPT并不是唯一一个不负责任地发布的产品,它反映了硅谷的文化. 例如, 根据美国国家运输安全委员会(NTSB), an experimental automated driving system by an Uber Advanced Technologies Group was deployed when the system did not account for jaywalking pedestrians yet; the system did not consider pedestrians as human if they were not walking on a crosswalk (国家运输安全委员会, 2019). 

每个人都知道硅谷的口号是“快速行动,打破常规”。, 但你可能会认为,如果他们的产品真的发展得很快,能让人崩溃,他们就会破例, 2023). 

为什么立法中需要护栏

人工智能确实有潜力帮助人类取得伟大的成就(我将在后面讨论)。, 但博彩平台推荐迫切需要立法保障. 如果博彩平台推荐不小心,这种进步可能会以公民权利或民主价值观为代价. 苏雷什文卡塔萨布拉曼尼亚, 布朗大学计算机科学教授,并被任命为白宫科技政策办公室主任, 他说:“这些技术系统影响着博彩平台推荐的公民权利和公民自由,包括信贷, 获得抵押贷款和拥有土地的机会, 儿童福利, 获得福利, 得到工作——所有晋升的机会”(布朗的新闻), 2022). 由于这些原因, 美国联邦贸易委员会(FTC)宣布,人工智能的使用应该是“透明的”, 可辩解的, 公平, 在培养问责制的同时,在经验上也是合理的.“OpenAI的产品GPT-4不满足这些要求, 然而联邦贸易委员会并没有采取任何行动, 2023). 人工智能和数字政策中心(CAIDP)认识到这种缺乏行动可能会让OpenAI影响博彩平台推荐的公民权利, 所以他们提出了投诉, 要求联邦贸易委员会采取行动. 在他们的抱怨中, CAIDP指出, “应该对美国提供的商业人工智能产品进行独立的监督和评估”(联邦贸易委员会), 2023).

尽管如此, 随着信息技术的不断采用加深了未来的不确定性, 传统的治理工具不太可能够用. 因此, 博彩平台推荐需要使用诸如美德伦理等更适合驾驭不确定性的系统来创建框架(鲍尔), 2022). 比如亚里士多德的十八种美德, Shannon Vallor最近提出了12种技术道德美德, 包括谦卑, 正义, 勇气, 宽宏大量, 同理心, 护理, 和智慧. 在她的书《博彩平台推荐》中, 瓦洛尔认为,培养这些美德将有助于个人与人工智能相处得更好, 2022). 如果博彩平台推荐能用这些值来评估发展中的人工智能, 博彩平台推荐将越来越多地确保人工智能与实质性的人类价值观保持一致.

博彩平台推荐可能还没有坚实的立法, 但护栏建立了对技术的信任,使创新得以蓬勃发展,而不必担心承担责任. 在Venkatasubramanian对美国的证词中.S. 平等就业机会委员会, 他说,反对安装护栏和“提倡草率”是一样的, 设计糟糕和不负责任的技术,永远不会在任何其他领域部署.” (U.S. 平等就业机会委员会,2023年).

各国政府为人工智能政策制定正式框架的努力是最近才出现的现象, 但人工智能政策制定的步伐预计将在未来几年加快(人工智能和数字政策中心), 2022). 例如, 联合国教科文组织于2021年11月发布了《博彩app推荐人工智能伦理的建议》, 建议各国如何开始评估人工智能. 2022年10月, 美国还制定了《博彩平台推荐》, 这是在与联邦政府各机构协商后制定的, 但也包括私营部门, 公民社会倡导者, 和学者(文卡萨布拉曼尼亚), 2023).  当博彩平台推荐继续制定博彩平台推荐的价值观时,最有成效的问题是:“是什么使博彩平台推荐成为人类??“然后,博彩平台推荐可以更好地了解人工智能的发展方向,并开始制定真正的立法.

在人工智能时代,是什么让博彩平台推荐成为人类? 人类的兴趣是什么?

比如日心说的发现, 人工智能将改变博彩平台推荐的世界观, 尤其是现代社会对于人类意义的体验. 在一个哑物的世界里,人类不再是唯一会说话的东西, 我不敢相信很少有人谈论生成式人工智能的哲学风险. 根据笛卡尔的“方法论”, 他认为语言是一种只有人类才拥有的能力,因为动物无法理解博彩平台推荐的话的意思, 它以一种特殊的定性方式将博彩平台推荐与动物和机器区分开来(里斯), 2022). 因为有了语言,人类才有了推理和提升心智的方法. 现在OpenAI致力于通用人工智能, 人类和非人类之间的这种区别将有可能不复存在. 

在一些情况下,人工智能造福了人类的生活,美国政府也承认这一点. 在“人工智能权利法案蓝图”中,白宫表示,“帮助农民更有效地种植粮食的自动化系统和预测风暴路径的计算机。, 到能够更早地识别患者疾病的算法, 这些工具有可能重新定义博彩平台推荐社会的方方面面,让每个人的生活更美好”(白宫), 2023). 另一个好处是,人们为娱乐目的制作了无害的视频,比如youtube用户Grandayy创作了一首博彩app推荐猫的艾米纳姆歌曲(哈尔- 9000), 2023).

不开玩笑, OpenAI是否能够实现通用AI, 当系统真正具备知识能力时——记住,目前的生成式人工智能只做预测分析——语言和智能将不再是把博彩平台推荐与其他一切区分开来的理由. 在更遥远的未来,如果人工智能达到超级智能的程度会怎样? 超级智能是人工智能远远超过人类智能的假想代理. 很可能在通用人工智能完成后不久,超级智能就会出现. 这似乎仍然很符合科幻小说的范畴, 但人工智能也可以发展情商. 机器将变得能够感受情感. 许多人说人际关系和爱的能力使博彩平台推荐成为人, 但如果通用人工智能, 这就是超级智能, 这是博彩平台推荐想要的方向吗, 博彩平台推荐可以创造其他众生. 这是博彩平台推荐想要的吗? 更具体地说,人类能处理好这个问题吗? 

如果没有对社会的发展方向进行深入的讨论, 立法将无法帮助增加未来的确定性. 人工智能只会继续加速发展. 博彩平台推荐必须有一个底线, 因此,博彩平台推荐必须积极主动,以确保博彩平台推荐不会遇到最坏的情况.


参考文献