首页 资讯 科技 财商 汽车 文娱 家电 生活

为构建生成式AI应用提供更多选择

北京2024年10月10日 /美通社/ --  亚马逊云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模态模型,现已在Amazon BedrockAmazon SageMaker中正式可用。客户也可以在基于Amazon Trainium和Amazon Inferentia的Amazon Elastic Cloud Compute(Amazon EC2)实例中部署这些模型。

Llama 3.2系列模型保留了此前的成功经验,并进行了全新升级,提供高度差异化的功能更新,包括支持图像推理的小型和中型视觉大语言模型,以及针对设备端优化过的轻量级纯文本模型。这些新模型旨在提高使用的便捷性和效率,同时特别注重负责任的创新和安全性。此外,针对内容安全分类而微调的Llama Guard 3 Vision模型,现在也已在Amazon SageMaker JumpStart中可用。

Llama 3.2系列模型优势:

Meta推出的首款多模态视觉模型:Llama 3.2 11B VisionLlama 3.2 90B Vision

为边缘和移动设备量身定制:Llama 3.2 1BLlama 3.2 3B

针对内容安全分类进行微调:Llama Guard 3 11B Vision

Meta表示,Llama 3.2模型已在超过150个基准数据集上进行评估,展现出与领先基础模型相媲美的竞争力。与Llama 3.1类似,所有Llama 3.2模型均支持128K的上下文长度,并支持涵盖八种语言的多语言对话使用场景,包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。