JJhooww commited on
Commit
f8a7f89
·
verified ·
1 Parent(s): 6dfcbfe

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +7 -7
README.md CHANGED
@@ -226,24 +226,24 @@ from qwen_vl_utils import process_vision_info
226
 
227
  # Carregar o modelo no(s) dispositivo(s) disponível(is)
228
  model = Qwen2VLForConditionalGeneration.from_pretrained(
229
- "Qwen/Qwen2-VL-7B-Instruct", torch_dtype="auto", device_map="auto"
230
  )
231
 
232
  # Recomendamos habilitar o flash_attention_2 para melhor aceleração e economia de memória, especialmente em cenários com múltiplas imagens e vídeos.
233
  # model = Qwen2VLForConditionalGeneration.from_pretrained(
234
- # "Qwen/Qwen2-VL-7B-Instruct",
235
  # torch_dtype=torch.bfloat16,
236
  # attn_implementation="flash_attention_2",
237
  # device_map="auto",
238
  # )
239
 
240
  # Processador padrão
241
- processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-7B-Instruct")
242
 
243
  # O intervalo padrão para o número de tokens visuais por imagem no modelo é de 4-16384. Você pode configurar min_pixels e max_pixels conforme suas necessidades, como um intervalo de contagem de tokens de 256-1280, para equilibrar velocidade e uso de memória.
244
  # min_pixels = 256*28*28
245
  # max_pixels = 1280*28*28
246
- # processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-7B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels)
247
 
248
  messages = [
249
  {
@@ -296,9 +296,9 @@ from transformers import Qwen2VLForConditionalGeneration, AutoTokenizer, AutoPro
296
 
297
  # Carregar o modelo em precisão reduzida no(s) dispositivo(s) disponível(is)
298
  model = Qwen2VLForConditionalGeneration.from_pretrained(
299
- "Qwen/Qwen2-VL-7B-Instruct", torch_dtype="auto", device_map="auto"
300
  )
301
- processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-7B-Instruct")
302
 
303
  # Imagem
304
  url = "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"
@@ -527,4 +527,4 @@ print(output_texts)
527
  journal={arXiv preprint arXiv:2308.12966},
528
  year={2023}
529
  }
530
- ```
 
226
 
227
  # Carregar o modelo no(s) dispositivo(s) disponível(is)
228
  model = Qwen2VLForConditionalGeneration.from_pretrained(
229
+ "JJhooww/Fluxi_AI_Small_Vision", torch_dtype="auto", device_map="auto"
230
  )
231
 
232
  # Recomendamos habilitar o flash_attention_2 para melhor aceleração e economia de memória, especialmente em cenários com múltiplas imagens e vídeos.
233
  # model = Qwen2VLForConditionalGeneration.from_pretrained(
234
+ # "JJhooww/Fluxi_AI_Small_Vision",
235
  # torch_dtype=torch.bfloat16,
236
  # attn_implementation="flash_attention_2",
237
  # device_map="auto",
238
  # )
239
 
240
  # Processador padrão
241
+ processor = AutoProcessor.from_pretrained("JJhooww/Fluxi_AI_Small_Vision")
242
 
243
  # O intervalo padrão para o número de tokens visuais por imagem no modelo é de 4-16384. Você pode configurar min_pixels e max_pixels conforme suas necessidades, como um intervalo de contagem de tokens de 256-1280, para equilibrar velocidade e uso de memória.
244
  # min_pixels = 256*28*28
245
  # max_pixels = 1280*28*28
246
+ # processor = AutoProcessor.from_pretrained("JJhooww/Fluxi_AI_Small_Vision", min_pixels=min_pixels, max_pixels=max_pixels)
247
 
248
  messages = [
249
  {
 
296
 
297
  # Carregar o modelo em precisão reduzida no(s) dispositivo(s) disponível(is)
298
  model = Qwen2VLForConditionalGeneration.from_pretrained(
299
+ "JJhooww/Fluxi_AI_Small_Vision", torch_dtype="auto", device_map="auto"
300
  )
301
+ processor = AutoProcessor.from_pretrained("JJhooww/Fluxi_AI_Small_Vision")
302
 
303
  # Imagem
304
  url = "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"
 
527
  journal={arXiv preprint arXiv:2308.12966},
528
  year={2023}
529
  }
530
+ ```