OpenAI面向开发者推出GPT-4 Turbo模型 新增视觉理解能力
近日,OpenAI对外宣布推出了具有视觉能力的最新GPT-4 Turbo模型,命名为GPT-4 Turbo with Vision,并通过OpenAI API向开发人员普遍提供。这一新模型延续了GPT-4 Turbo系列128,000个token的窗口大小,并在知识库截止至2023年12月的基础上,新增了视觉理解能力。
据了解,GPT-4 Turbo with Vision的最大革新之处在于其能够同时处理文本和图像信息,将两者合二为一,极大地简化了开发流程,并拓展了应用前景。过去,开发者需要调用不同的模型来处理这两种类型的信息,而现在他们可以通过一个模型完成这一任务。
OpenAI还分享了一些开发者正在使用GPT-4 Turbo with Vision的有趣案例。例如,AI软件工程助手Devin利用该模型辅助编程;健康健身应用程序Healthify利用图像识别功能扫描用户饮食照片,并提供营养分析;创意平台Make Real则利用该模型将用户的草图转化为可运行的网站。
目前,尽管GPT-4 Turbo with Vision尚未应用于ChatGPT或开放给大众使用,但OpenAI暗示该功能即将登陆ChatGPT,为用户提供更加丰富多样的交互体验。据铋读了解,GPT-4 Turbo with Vision的推出标志着OpenAI在人工智能领域的持续创新和进步,为开发者和用户带来了更加强大、智能的AI技术。