ChatGPT 被用于自动编写电子邮件:Microsoft、Salesforce 和 TikTok 的创作者都在追赶这一趋势
| 2023 年 3 月 20 日- 随着大型科技公司和初创公司竞相将其集成到他们的产品中,包括 ChatGPT 等工具在内的生成式 AI 引发了繁荣。
- 一个可以在不久的将来商业化的有前途的应用程序是利用聊天机器人的力量来快速编写和自动化带有一点个性化的电子邮件。
- 微软和 Salesforce 本周发布了具有该功能的新产品。
人工智能聊天机器人已经被用于编写自定义电子邮件推介。 这表明 ChatGPT 等人工智能可能很快将在商业中发挥重要作用,Salesforce 和 Microsoft 等公司开始提供聊天机器人与其软件之间更紧密的集成。
最近一段病毒式传播的 TikTok 视频展示了如何使用与 Google 表格集成的 ChatGPT 向要求开会的高管编写自定义 LinkedIn 消息。 它确定了一个行业中的 10 家潜在公司及其首席执行官,并为每家公司生成了不同的外展说明,包括一个独特的问题。
“我认为我们正处于一个非常有趣的转折点,即我们将如何在未来的日常生活中开始使用人工智能,即使在六个月前,在 ChatGPT 更容易获得之前,人工智能也不是那么容易访问向公众公开,”TikTok 视频的创作者亚历克斯·克鲁法斯 (Alex Klufas) 说。 她制作了专注于科技行业工作的视频。
这段视频——以及之前展示类似技术的病毒帖子——显然触动了神经,有 2.5 万次观看和大量评论询问它是如何工作的。
生成式人工智能——包括使用大型语言模型或 LLM 技术的工具,如 ChatGPT——已经引发了繁荣,因为大型科技公司和初创公司都在竞相集成能够生成类似于人类编写的内容的软件。
很少有基于 LLM 的产品真正赚钱。 微软和谷歌正在努力将下一级聊天机器人集成到搜索引擎中。 公司正致力于使用这些机器人来编写营销文案或计算机代码。
Klufas 的视频说明了这个特别有前途的应用程序如何在不久的将来商业化:使用聊天机器人的力量快速编写和自动化带有一点个性化的电子邮件,可能用于销售、营销或个人网络。 微软和 Salesforce 本周发布了具有该功能的新产品。
瑞士信贷的金融分析师在本月早些时候的一份报告中多次指出电子邮件生成是该技术的具体和近期用途。 分析师估计,微软最近宣布的生成式 AI 销售功能可以帮助它抢占市场份额,并有可能增加超过 768 亿美元的年收入。
产品上市
周二,Salesforce 宣布了其名为 EinsteinGPT 的 LLM 产品,该产品使用 OpenAI ChatGPT 模型。 它可以自动编写营销电子邮件——这是一个合乎逻辑的集成,因为 Salesforce 的主要产品是一个网络应用程序,可以跟踪销售人员联系潜在客户的频率。
在周二的一条推文中,Salesforce 首席执行官马克贝尼奥夫展示了该软件,用它来识别公司的两个联系人,然后自动生成一封只有一句话的电子邮件,试图安排会面。 在演示中,EinsteinGPT 在用户告诉软件不那么正式后软化了冷漠的外展电子邮件。
Salesforce 尚未为这些工具设定价格,但表示正在与试点客户进行测试。
微软周一宣布,将把基于 ChatGPT 的生成式 AI 整合到一套商业工具中 称为副驾驶. 它的主要功能之一是使用 AI 生成电子邮件。
在一段演示视频中,微软展示了集成到 Outlook 邮箱中的功能,并提供了使用它来回复提案请求或建议与客户会面时间的示例。
在示例中,一封入站电子邮件希望跟进潜在的销售交易,而 Microsoft 的功能提供了四种不同的草稿回复,包括提供折扣的回复和解决问题的回复。
微软表示,其 AI 电子邮件编写器可以从电子邮件线程中获取重要的上下文,例如之前讨论过的价格,并将其粘贴到 AI 起草的回复中。 在微软提供的示例中,用户在发送AI草稿之前对其进行了编辑。
该公司周一表示,微软的功能目前正在进行 Beta 测试,但将于 15 月 XNUMX 日向微软 Viva Sales 功能的客户发布。
一些初创公司甚至将目光投向了开发定制化 AI,这些 AI 可以通过分析用户之前的电子邮件和文本交互并将其集成到个性化 AI 模型中,以与用户相同的方式响应消息。
“这样做的好处是人们愿意与你交流,而你没有时间回复他们,你没有时间表达你的想法,”Suman Kanuganti 说,他是 个人.ai,一个目前处于测试模式的聊天机器人。 “在这些情况下,你可以选择让你的 AI 在副驾驶模式下帮助你,或者在自动驾驶模式下向他们提供 [自动] 响应。”
缺点
一些人担心生成电子邮件文本的能力可能会被滥用来向人们发送垃圾邮件,并且聊天机器人可能会被用来钓鱼获取人们的私人密码。
摩根大通分析师本月在一份审查人工智能行业的报告中写道:“我们可能会看到与专用电子邮件无法区分的大量针对性消息和垃圾邮件。”
ChatGPT 也容易出现“幻觉”或编造东西。 它只是根据统计数据预测下一个单词或短语的一部分应该是什么,并不知道它是否正确。
微软在其声明中表示,它将使用其软件中的数据来确定回复的事实,并有一个向下按钮,以便用户可以告诉机器人回复没有帮助。 这有助于训练模型以避免将来出现同样的错误。
Salesforce 的一位高管此前曾表示,在不损害负责任的道德方法的情况下,它正在尽可能快地采取行动。
但 ChatGPT 的局限性在病毒式传播的 TikTok 视频中清晰可见。 虽然一些建议是正确的,但 ChatGPT 推荐的几位 CEO 要么是前任 CEO,要么不是公司的高管。 虽然冷外联的文本看起来很合适,但它仍然可能需要一个人来确保一切都是正确的。
“我认为任何使用这项技术的人,尽管它是新生的,都必须进行尽职调查,”Klufas 说。 她说她实际上并没有发送她通过 ChatGPT 生成的电子邮件。
但她仍然对使用 ChatGPT 帮助她制作 TikToks 和其他社交媒体内容感到兴奋。 她的最新应用是使用 ChatGPT 制作包含关键字的 TikTok 字幕,使她的视频更容易在网上找到。