Qwen 2.5 VL AWQ 3B
O Qwen 2.5 VL AWQ 3B é um modelo de linguagem e visão que oferece capacidades avançadas como análise visual, raciocínio de agente, compreensão de vídeo longo, localização visual e geração de saída estruturada. Ele suporta 3 bilhões de parâmetros.
Detalhes do modelo
Categoria | Detalhes |
---|---|
Nome do modelo | Qwen2.5 VL |
Versão | AWQ 3B |
Categoria do modelo | VLM |
Tamanho | 3B parâmetros |
Modelo HuggingFace | Qwen/Qwen2.5-VL-3B-Instruct-AWQ |
Endpoint compatível com a OpenAI | Chat Completions |
Licença | Apache 2.0 |
Capacidades
Recurso | Detalhes |
---|---|
Tool Calling | ✅ |
Suporte a longo prazo da Azion (LTS) | ✅ |
Tamanho do contexto | 32k tokens |
Suporta LoRA | ✅ |
Dados de entrada | Texto + Imagem |
Uso
Exemplo básico de chat completion
Este é um exemplo básico de uma requisição de chat completion usando este modelo:
const modelResponse = await Azion.AI.run("qwen-qwen25-vl-3b-instruct-awq", { "stream": true, "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Name the european capitals" } ]})
Propriedade | Tipo | Descrição |
---|---|---|
stream | boolean | Indica se a resposta deve ser transmitida por stream. |
messages[] | array | Array de objetos de mensagem, contendo as mensagens do sistema e do usuário. |
messages[].role | string | O papel do remetente da mensagem. |
messages[].content | string | O conteúdo da mensagem. |
Exemplo de resposta:
{ "id": "chatcmpl-e27716424abf4b3f891ff4850470cb09", "object": "chat.completion", "created": 1746821581, "model": "qwen-qwen25-vl-3b-instruct-awq", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": "Sure! Here is a list of some European capitals...", "tool_calls": [] }, "logprobs": null, "finish_reason": "stop", "stop_reason": null } ], "usage": { "prompt_tokens": 9, "total_tokens": 527, "completion_tokens": 518, "prompt_tokens_details": null }, "prompt_logprobs": null}
Propriedade | Tipo | Descrição |
---|---|---|
id | string | Identificador único para a resposta do chat. |
object | string | Tipo de objeto. |
created | number | Carimbo de data e hora quando a resposta do chat foi criada. |
model | string | Modelo usado para a resposta do chat. |
choices[] | array | Array contendo as escolhas feitas pelo modelo. |
choices[].index | number | Índice da escolha. |
choices[].message | object | Mensagem retornada pelo modelo na escolha. |
choices[].message.role | string | Papel do remetente da mensagem. |
choices[].message.reasoning_content | string | Raciocínio por trás da resposta do modelo. |
choices[].message.content | string | Conteúdo da mensagem enviada pelo modelo. |
choices[].message.tool_calls[] | array | Array de chamadas de ferramenta. |
choices[].logprobs | number | Probabilidades logarítmicas. |
choices[].finish_reason | string | Motivo para terminar a resposta. |
usage | object | Contém informações sobre o uso de tokens. |
usage.prompt_tokens | number | Número de tokens no prompt. |
usage.total_tokens | number | Total de tokens usados. |
usage.completion_tokens | number | Número de tokens usados na conclusão. |
usage.prompt_tokens_details | string | Informações detalhadas sobre os tokens do prompt. |
prompt_logprobs | number | Probabilidades logarítmicas para o prompt. |
Exemplo de Tool Calling
Este é um exemplo de uma requisição de Tool Calling usando este modelo:
const modelResponse = await Azion.AI.run("qwen-qwen25-vl-3b-instruct-awq", { "stream": true, "messages": [ { "role": "system", "content": "You are a helpful assistant with access to tools." }, { "role": "user", "content": "What is the weather in London?" } ], "tools": [ { "type": "function", "function": { "name": "get_weather", "description": "Get the current weather for a location", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "The city and state" } }, "required": [ "location" ] } } } ]})
Propriedade | Tipo | Descrição |
---|---|---|
messages[] | array | Array contendo as mensagens trocadas entre o sistema e o usuário. |
messages[].role | string | Papel do remetente da mensagem. |
messages[].content | string | O conteúdo da mensagem. |
tools[] | array | Array contendo as ferramentas usadas na consulta. |
tools[].type | string | O tipo da ferramenta. |
tools[].function | object | A função sendo chamada pela ferramenta. |
tools[].function.name | string | O nome da função. |
tools[].function.description | string | Uma descrição da função. |
tools[].function.parameters | object | Os parâmetros requeridos pela função. |
Exemplo de resposta:
{ "id": "chatcmpl-88affc4730cf4219a06d2b15aad9ad44", "object": "chat.completion", "created": 1746821866, "model": "qwen-qwen25-vl-3b-instruct-awq", "choices": [ { "index": 0, "message": { "role": "assistant", "reasoning_content": null, "content": null, "tool_calls": [ { "id": "chatcmpl-tool-fd3311e75aed4cbfbeb7244ced77379f", "type": "function", "function": { "name": "get_weather", "arguments": "{\"location\": \"London\"}" } } ] }, "logprobs": null, "finish_reason": "tool_calls", "stop_reason": null } ], "usage": { "prompt_tokens": 293, "total_tokens": 313, "completion_tokens": 20, "prompt_tokens_details": null }, "prompt_logprobs": null}
Propriedade | Tipo | Descrição |
---|---|---|
choices[] | array | Array contendo as escolhas feitas pelo assistente. |
choices[].index | integer | O índice da primeira escolha. |
choices[].message | object | A mensagem enviada pelo assistente na primeira escolha. |
choices[].message.role | string | O papel do assistente na mensagem. |
choices[].message.reasoning_content | null | O conteúdo de raciocínio. |
choices[].message.content | null | O conteúdo da mensagem. |
choices[].message.tool_calls[] | array | Array de chamadas de ferramenta invocadas pelo assistente na mensagem. |
choices[].message.tool_calls[].id | string | O ID da chamada de ferramenta. |
choices[].message.tool_calls[].type | string | O tipo da chamada de ferramenta. |
choices[].message.tool_calls[].function | object | A função chamada pela ferramenta. |
choices[].message.tool_calls[].function.name | string | O nome da função chamada. |
choices[].message.tool_calls[].function.arguments | string | Os argumentos passados para a função em formato JSON. |
logprobs | null | O valor logprobs. |
finish_reason | string | O motivo pelo qual a resposta terminou. |
stop_reason | null | O motivo pelo qual a resposta foi interrompida. |
usage.prompt_tokens | integer | O número de tokens do prompt usados. |
usage.total_tokens | integer | O total de tokens usados. |
usage.completion_tokens | integer | O número de tokens de conclusão usados. |
usage.prompt_tokens_details | null | Os detalhes para os tokens do prompt. |
prompt_logprobs | null | Os logprobs do prompt. |
Exemplo multimodal (texto + imagem)
Este é um exemplo de uma requisição multimodal usando este modelo:
const modelResponse = await Azion.AI.run("qwen-qwen25-vl-3b-instruct-awq", { "stream": true, "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": [ { "type": "text", "text": "What is in this image?" }, { "type": "image_url", "image_url": { "url": "https://example.com/image.jpg" } } ] } ]})
Propriedade | Tipo | Descrição |
---|---|---|
messages[] | array | Array contendo as mensagens enviadas pelo sistema e pelo usuário. |
messages[].role | string | O papel do remetente da mensagem. |
messages[].content[] | array | Array contendo os objetos de conteúdo na mensagem. |
messages[].content[] | object | O objeto de conteúdo na mensagem. |
messages[].content[].type | string | O tipo do objeto de conteúdo. |
messages[].content[].image_url | object | O objeto de URL de imagem no objeto de conteúdo. |
messages[].content[].image_url.url | string | A URL da imagem. |
stream | boolean | Indica se a resposta deve ser transmitida por stream. |
A resposta será semelhante à do exemplo básico de conclusão de chat.
Schema JSON
{ "$schema": "http://json-schema.org/draft-07/schema#", "type": "object", "required": [ "messages" ], "properties": { "messages": { "type": "array", "items": { "$ref": "#/components/schemas/Message" } }, "temperature": { "type": "number", "minimum": 0, "maximum": 2 }, "top_p": { "type": "number", "minimum": 0, "maximum": 1, "default": 1 }, "n": { "type": "integer", "minimum": 1, "default": 1 }, "stream": { "type": "boolean", "default": false }, "max_tokens": { "type": "integer", "minimum": 1 }, "presence_penalty": { "type": "number", "minimum": -2, "maximum": 2, "default": 0 }, "frequency_penalty": { "type": "number", "minimum": -2, "maximum": 2, "default": 0 }, "tools": { "type": "array", "items": { "$ref": "#/components/schemas/ToolDefinition" } } }, "components": { "schemas": { "Message": { "oneOf": [ { "$ref": "#/components/schemas/SystemMessage" }, { "$ref": "#/components/schemas/UserMessage" }, { "$ref": "#/components/schemas/AssistantMessage" }, { "$ref": "#/components/schemas/ToolMessage" } ] }, "SystemMessage": { "type": "object", "required": [ "role", "content" ], "properties": { "role": { "type": "string", "enum": [ "system" ] }, "content": { "$ref": "#/components/schemas/TextContent" } } }, "UserMessage": { "type": "object", "required": [ "role", "content" ], "properties": { "role": { "type": "string", "enum": [ "user" ] }, "content": { "oneOf": [ { "type": "string" }, { "type": "array", "items": { "oneOf": [ { "$ref": "#/components/schemas/TextContentItem" }, { "$ref": "#/components/schemas/ImageContentItem" } ] } } ] } } }, "AssistantMessage": { "oneOf": [ { "$ref": "#/components/schemas/AssistantMessageWithoutToolCalls" }, { "$ref": "#/components/schemas/AssistantMessageWithToolCalls" } ] }, "ToolMessage": { "type": "object", "required": [ "role", "content", "tool_call_id" ], "properties": { "role": { "enum": [ "tool" ] }, "content": { "type": "string" }, "tool_call_id": { "type": "string" } } }, "AssistantMessageWithoutToolCalls": { "type": "object", "required": [ "role", "content" ], "properties": { "role": { "type": "string", "enum": [ "assistant" ] }, "content": { "$ref": "#/components/schemas/TextContent" } }, "not": { "required": [ "tool_calls" ] } }, "AssistantMessageWithToolCalls": { "type": "object", "required": [ "role", "tool_calls" ], "properties": { "role": { "type": "string", "enum": [ "assistant" ] }, "tool_calls": { "type": "array", "items": { "$ref": "#/components/schemas/ToolCalls" } } } }, "TextContent": { "oneOf": [ { "type": "string" }, { "type": "array", "items": { "$ref": "#/components/schemas/TextContentItem" } } ], "description": "Text content that can be provided either as a simple string or as an array of TextContentItem objects" }, "ImageContent": { "type": "array", "items": { "$ref": "#/components/schemas/ImageContentItem" } }, "TextContentItem": { "type": "object", "required": [ "type", "text" ], "properties": { "type": { "type": "string", "enum": [ "text" ] }, "text": { "type": "string" } } }, "ImageContentItem": { "type": "object", "required": [ "type", "image_url" ], "properties": { "type": { "type": "string", "enum": [ "image_url" ] }, "image_url": { "type": "object", "required": [ "url" ], "properties": { "url": { "type": "string", "format": "uri" } } } } }, "ToolCalls": { "type": "object", "required": [ "function", "id", "type" ], "properties": { "function": { "type": "object", "required": [ "name", "arguments" ], "properties": { "name": { "type": "string" }, "arguments": { "type": "string" } } }, "id": { "type": "string" }, "type": { "enum": [ "function" ] } }, "description":"The name and arguments of a function that should be called, as generated by the model." }, "ToolDefinition": { "type": "object", "required": [ "type", "function" ], "properties": { "type": { "type": "string", "enum": [ "function" ] }, "function": { "type": "object", "required": [ "name" ], "properties": { "name": { "type": "string" }, "description": { "type": "string" }, "parameters": { "type": "object", "additionalProperties": true }, "strict": { "type": "boolean", "default": false } } } }, "description": "Definition of a tool that can be used by the model" } } }}