广告
科学新闻
来自研究机构

Chatgpt设计了一个机器人

日期:
2023年6月7日
来源:
代尔夫特理工大学
简介:
诗歌、散文甚至书籍——有什么是OpenAI平台ChatGPT无法处理的吗?这些新的人工智能发展激发了研究人员更深入的研究:例如,ChatGPT也可以设计机器人吗?这对设计过程来说是件好事,还是存在风险?
分享:
广告

完整的故事

诗歌、散文甚至书籍——有没有什么东西是开放的人工智能平台ChatGPT不能处理吗?这些新的人工智能发展激发了代尔夫特理工大学和瑞士理工大学EPFL的研究人员进行更深入的研究:例如,ChatGPT也可以设计机器人吗?这对设计过程来说是件好事,还是存在风险?研究人员将他们的发现发表在自然-机器智能爱博网投官方网站

人类未来最大的挑战是什么?这是代尔夫特理工大学助理教授Cosimo Della Santina和博士生Francesco Stella以及EPFL的Josie Hughes向ChatGPT提出的第一个问题。“我们希望ChatGPT设计的不仅仅是一个机器人,而是一个真正有用的机器人,”德拉·桑蒂纳说。最后,他们选择了食物供应作为他们的挑战,在与ChatGPT聊天时,他们想到了创造一个西红柿收获机器人的想法。

有用的建议

研究人员遵循了ChatGPT的所有设计决策。根据斯特拉的说法,这些意见在概念阶段被证明特别有价值。ChatGPT将设计师的知识扩展到其他专业领域。例如,聊天机器人告诉我们哪种作物自动化最有经济价值。”但ChatGPT在实施阶段也提出了一些有用的建议:“用硅树脂或橡胶制作抓手,以避免压碎西红柿”,“Dynamixel电机是驱动机器人的最佳方式。”人类和人工智能合作的结果是一个可以收获西红柿的机械手臂。

ChatGPT作为一名研究员

研究人员发现协作设计过程是积极和丰富的。斯特拉说:“然而,我们确实发现我们作为工程师的角色转向了执行更多的技术任务。”在自然-机器智能爱博网投官方网站,研究人员探索了人类与大型语言模型(LLM)之间不同程度的合作,ChatGPT就是其中之一。在最极端的情况下,人工智能为机器人的设计提供了所有的输入,而人类则盲目地跟随它。在这种情况下,法学硕士作为研究人员和工程师,而人类作为管理者,负责指定设计目标。

误传风险

如今的法学硕士还不可能出现这种极端情况。问题是这是否可取。“事实上,法学硕士的输出如果没有经过验证或验证,可能会产生误导。人工智能机器人的设计目的是为一个问题生成‘最可能的’答案,因此在机器人领域存在错误信息和偏见的风险,”德拉·桑蒂纳说。与法学硕士合作还引发了其他重要问题,如抄袭、可追溯性和知识产权。

德拉·桑蒂娜、斯特拉和休斯将继续在他们的机器人研究中使用西红柿收获机器人。他们还在继续法学硕士课程的学习,以设计新的机器人。具体来说,他们正在研究人工智能在设计自己身体时的自主性。“最终,我们这个领域未来的一个悬而未决的问题是,法学硕士如何在不限制机器人应对21世纪挑战所需的创造力和创新的情况下,帮助机器人开发人员斯特拉总结道。

广告

故事来源:

材料所提供的代尔夫特理工大学注:内容可能会根据风格和长度进行编辑。


期刊引用

  1. 弗朗西斯科·斯特拉,科西莫·德拉·桑蒂娜,乔西·休斯。法学硕士如何改变机器人设计过程?自然-机器智能爱博网投官方网站, 2023;DOI:10.1038 / s42256 - 023 - 00669 - 7

引用此页

代尔夫特理工大学。“Chatgpt设计了一个机器人。”《科学日报》。《科学日报》,2023年6月7日。< www.koonmotors.com/releases/2023/06/230607215856.htm >。
代尔夫特理工大学。(2023, 6月7日). Chatgpt设计一个机器人。《科学日报》。2023年6月15日检索自www.koonmotors.com/releases/2023/06/230607215856.htm
代尔夫特理工大学。“Chatgpt设计了一个机器人。”《科学日报》。www.koonmotors.com/releases/2023/06/230607215856.htm(2023年6月15日访问)。

探索更多的
从科学日报

有关的故事

广告