Update README.md
Browse files
README.md
CHANGED
@@ -226,24 +226,24 @@ from qwen_vl_utils import process_vision_info
|
|
226 |
|
227 |
# Carregar o modelo no(s) dispositivo(s) disponível(is)
|
228 |
model = Qwen2VLForConditionalGeneration.from_pretrained(
|
229 |
-
"
|
230 |
)
|
231 |
|
232 |
# Recomendamos habilitar o flash_attention_2 para melhor aceleração e economia de memória, especialmente em cenários com múltiplas imagens e vídeos.
|
233 |
# model = Qwen2VLForConditionalGeneration.from_pretrained(
|
234 |
-
# "
|
235 |
# torch_dtype=torch.bfloat16,
|
236 |
# attn_implementation="flash_attention_2",
|
237 |
# device_map="auto",
|
238 |
# )
|
239 |
|
240 |
# Processador padrão
|
241 |
-
processor = AutoProcessor.from_pretrained("
|
242 |
|
243 |
# O intervalo padrão para o número de tokens visuais por imagem no modelo é de 4-16384. Você pode configurar min_pixels e max_pixels conforme suas necessidades, como um intervalo de contagem de tokens de 256-1280, para equilibrar velocidade e uso de memória.
|
244 |
# min_pixels = 256*28*28
|
245 |
# max_pixels = 1280*28*28
|
246 |
-
# processor = AutoProcessor.from_pretrained("
|
247 |
|
248 |
messages = [
|
249 |
{
|
@@ -296,9 +296,9 @@ from transformers import Qwen2VLForConditionalGeneration, AutoTokenizer, AutoPro
|
|
296 |
|
297 |
# Carregar o modelo em precisão reduzida no(s) dispositivo(s) disponível(is)
|
298 |
model = Qwen2VLForConditionalGeneration.from_pretrained(
|
299 |
-
"
|
300 |
)
|
301 |
-
processor = AutoProcessor.from_pretrained("
|
302 |
|
303 |
# Imagem
|
304 |
url = "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"
|
@@ -527,4 +527,4 @@ print(output_texts)
|
|
527 |
journal={arXiv preprint arXiv:2308.12966},
|
528 |
year={2023}
|
529 |
}
|
530 |
-
```
|
|
|
226 |
|
227 |
# Carregar o modelo no(s) dispositivo(s) disponível(is)
|
228 |
model = Qwen2VLForConditionalGeneration.from_pretrained(
|
229 |
+
"JJhooww/Fluxi_AI_Small_Vision", torch_dtype="auto", device_map="auto"
|
230 |
)
|
231 |
|
232 |
# Recomendamos habilitar o flash_attention_2 para melhor aceleração e economia de memória, especialmente em cenários com múltiplas imagens e vídeos.
|
233 |
# model = Qwen2VLForConditionalGeneration.from_pretrained(
|
234 |
+
# "JJhooww/Fluxi_AI_Small_Vision",
|
235 |
# torch_dtype=torch.bfloat16,
|
236 |
# attn_implementation="flash_attention_2",
|
237 |
# device_map="auto",
|
238 |
# )
|
239 |
|
240 |
# Processador padrão
|
241 |
+
processor = AutoProcessor.from_pretrained("JJhooww/Fluxi_AI_Small_Vision")
|
242 |
|
243 |
# O intervalo padrão para o número de tokens visuais por imagem no modelo é de 4-16384. Você pode configurar min_pixels e max_pixels conforme suas necessidades, como um intervalo de contagem de tokens de 256-1280, para equilibrar velocidade e uso de memória.
|
244 |
# min_pixels = 256*28*28
|
245 |
# max_pixels = 1280*28*28
|
246 |
+
# processor = AutoProcessor.from_pretrained("JJhooww/Fluxi_AI_Small_Vision", min_pixels=min_pixels, max_pixels=max_pixels)
|
247 |
|
248 |
messages = [
|
249 |
{
|
|
|
296 |
|
297 |
# Carregar o modelo em precisão reduzida no(s) dispositivo(s) disponível(is)
|
298 |
model = Qwen2VLForConditionalGeneration.from_pretrained(
|
299 |
+
"JJhooww/Fluxi_AI_Small_Vision", torch_dtype="auto", device_map="auto"
|
300 |
)
|
301 |
+
processor = AutoProcessor.from_pretrained("JJhooww/Fluxi_AI_Small_Vision")
|
302 |
|
303 |
# Imagem
|
304 |
url = "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"
|
|
|
527 |
journal={arXiv preprint arXiv:2308.12966},
|
528 |
year={2023}
|
529 |
}
|
530 |
+
```
|