亚马逊云科技通过SageMaker JumpStart AI部署Llama 3模型

目前,亚马逊云科技已经支持多种模型的使用,如DeepSeek、Llama 2、Llama 3等,其中Llama 3是专为构建、实验和负责任地扩展生成式人工智能应用程序而设计的,提供8B和70B两种参数。Amazon SageMaker AI简化了Llama 3.3 70B等复杂模型的部署,提供一系列旨在优化性能和成本效率的功能。本文就来详细地带大家来了解一下通过SageMaker JumpStart AI部署Llama 3模型教程。

Llama 3模型:

  • Llama 3 8B非常适合有限的计算能力和资源以及边缘设备。该模型擅长文本摘要、文本分类、情感分析和语言翻译。
  • Llama 3 70B非常适合内容创建、对话式AI、语言理解、研究开发和企业应用程序。该模型擅长文本摘要和准确性、文本分类和细微差别、情感分析和细微差别推理、语言建模、对话系统、代码生成和遵循指令。

本文选择的是Llama 3.3 70B模型,下面就一起来看下。

一、亚马逊云科技免费云服务推荐

点击获取:亚马逊云科技官网

1、亚马逊云科技免费云服务器

亚马逊云科技现为用户提供的免费云服务器(Amazon EC2)服务,可免费试用12个月,包括每月750个小时的Linux和Windows t2.micro实例。Amazon EC2访问可靠、可扩展、可用性高达99.99%。

亚马逊云科技

2、亚马逊云科技免费云存储

亚马逊云科技免费数据库提供的方案是1核1G内存、20GB通用型(SSD)、20GB数据库备份和数据库、自动备份/自动数据库软件升级、最多可扩展32 vCPU/244GB的内存。适用于MySQL、PostgreSQL、MariaDB、Oracle BYOL、SQL Server数据库引擎,免费试用12个月。

亚马逊云科技

3、亚马逊免费无服务器计算

亚马逊免费无服务器计算(Amazon Lambda)是一种免费使用的无服务器计算服务,无需管理服务器,自动扩展应用程序,通过毫秒计量优化成本,任意规模都能获得—致的超高性能,每月100万次免费请求、每月高达320万秒计算时间,永久免费。

亚马逊云科技

新用户注册亚马逊云科技账户,即可免费使用以上云服务产品,长达12个月。

相关推荐:《如何注册亚马逊AWS账号

二、通过SageMaker JumpStart UI部署Llama 3.3 70B

SageMaker JumpStart是亚马逊云科技推出的一个机器学习中心,可帮助加快用户的ML之旅。使用SageMaker JumpStart,用户可以评估、比较和选择预训练的基础模型,包括Llama 3模型。

1、进入亚马逊云科技官网,在SageMaker Unified Studio中,在“构建”菜单上选择“启动模型”。

亚马逊云科技

亚马逊云科技

2、通过在左上角的搜索框中搜索“Meta-llama-3”来找到Llama 3型号。

亚马逊云科技

3、选择Meta Llama 3.3 70B模型。

亚马逊云科技

4、选择部署。

亚马逊云科技

5、接受最终用户许可协议(EULA)。

6、选择实例类型(ml.g5.48xlarge或ml.p4d.24xlarge)。

亚马逊云科技

等待端点状态显示为InService。现在就可以使用该模型运行推理了。

亚马逊云科技

三、使用SageMaker Python SDK部署Llama 3.3 70B

对于希望自动部署或与现有MLOps管道集成的团队,就可以使用以下代码,使用SageMaker Python SDK部署模型:

from sagemaker.serve.builder.model_builder import ModelBuilder
from sagemaker.serve.builder.schema_builder import SchemaBuilder
from sagemaker.jumpstart.model import ModelAccessConfig
from sagemaker.session import Session
import logging

sagemaker_session = Session()

artifacts_bucket_name = sagemaker_session.default_bucket()
execution_role_arn = sagemaker_session.get_caller_identity_arn()

js_model_id = "meta-textgeneration-llama-3-3-70b-instruct"

gpu_instance_type = "ml.p4d.24xlarge"

response = "Hello, I'm a language model, and I'm here to help you with your English."

sample_input = {
    "inputs": "Hello, I'm a language model,",
    "parameters": {"max_new_tokens": 128, "top_p": 0.9, "temperature": 0.6},
}

sample_output = [{"generated_text": response}]

schema_builder = SchemaBuilder(sample_input, sample_output)

model_builder = ModelBuilder(
    model=js_model_id,
    schema_builder=schema_builder,
    sagemaker_session=sagemaker_session,
    role_arn=execution_role_arn,
    log_level=logging.ERROR
)

model= model_builder.build()

predictor = model.deploy(model_access_configs={js_model_id:ModelAccessConfig(accept_eula=True)}, accept_eula=True)
predictor.predict(sample_input)

设置自动缩放和缩放到零。

用户可以选择设置自动缩放,以便在部署后缩减为零。

相关推荐:

在Amazon Bedrock上部署DeepSeek-R1模型

亚马逊免费云服务器部署DeepSeek-R1教程

Amazon SageMaker部署DeepSeek-R1教程

使用教程

阿里云服务器基于xFasterTransformer部署Llama2-7B模型教程

2025-4-10 10:31:36

产品方案

腾讯云裸金属云服务器有哪些计费模式?

2024-3-29 14:19:30

相关推荐