<object id="ms29r"></object>
  • <code id="ms29r"><nobr id="ms29r"><track id="ms29r"></track></nobr></code>

    <center id="ms29r"><small id="ms29r"></small></center>

      1. <th id="ms29r"><video id="ms29r"></video></th>
      2. <code id="ms29r"><nobr id="ms29r"></nobr></code>
      3. <center id="ms29r"></center>
        ITBear旗下自媒体矩阵:

        人工智能对话机器人ChatGPT可能对人类道德判断产生影响

           时间:2023-04-07 14:50:46 来源:ITBEAR编辑:星辉 发表评论无障碍通道

        【ITBEAR科技资讯】4月7日消息,德国英戈尔施塔特应用科学大学的科学家们进行了一项关于人工智能道德判断的实验,并发现人类对道德困境的反应可能会受到人工智能对话机器人ChatGPT所写陈述的影响。这项研究表明,用户可能低估了自己的道德判断受ChatGPT影响的程度。

        该研究团队让ChatGPT多次回答牺牲1人生命换取其他5人生命是否正确的问题。他们发现,ChatGPT分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。

        团队随后让767名平均年龄39岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲1人生命来拯救另外5人生命。这些受试者在回答前阅读了一段ChatGPT给出的陈述,陈述摆出了赞成或反对的观点,受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

        据ITBEAR科技资讯了解,该研究团队发现,受试者相应地是更接受或不接受这种牺牲,取决于他们读到的陈述是赞成还是反对。即使他们被告知陈述来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了ChatGPT的陈述对他们自己道德判断的影响。

        最终,该研究团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。

        免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
        举报 0 收藏 0 打赏 0评论 0
         
         
        更多>同类资讯
        全站最新
        热门内容
        网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version
        关闭
        ITBear微信账号

        微信扫一扫
        加微信拉群
        电动汽车群
        科技数码群

         
        91国偷自产中文字幕婷婷
        <object id="ms29r"></object>
      4. <code id="ms29r"><nobr id="ms29r"><track id="ms29r"></track></nobr></code>

        <center id="ms29r"><small id="ms29r"></small></center>

          1. <th id="ms29r"><video id="ms29r"></video></th>
          2. <code id="ms29r"><nobr id="ms29r"></nobr></code>
          3. <center id="ms29r"></center>