Carlexxx commited on
Commit
9ae2dbf
·
1 Parent(s): 691e419

[Sincronização Automática] - 2025-09-23 16:33:50

Browse files
Files changed (2) hide show
  1. Dockerfile +0 -20
  2. start.sh +19 -10
Dockerfile CHANGED
@@ -76,26 +76,6 @@ RUN pip install \
76
  numpy
77
 
78
 
79
-
80
- # 2. Instala a wheel pré-compilada do Flash Attention 2.8.0
81
- # Esta é a forma mais rápida e estável de instalar, evitando compilação demorada.
82
- # Esta wheel é compatível com PyTorch 2.8.0 e CUDA 12.x
83
- RUN git clone https://github.com/Dao-AILab/flash-attention && \
84
- cd flash-attention/hopper && \
85
- pip -v setup.py install && \
86
- export PYTHONPATH=$PWD && \
87
- pytest -q -s test_flash_attn.py
88
-
89
-
90
- # 3. Compila e instala o NVIDIA Apex
91
- RUN git clone https://github.com/NVIDIA/apex.git && \
92
- cd apex && \
93
- pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./ && \
94
- cd .. && rm -rf apex
95
-
96
- # 4. Instala os Kernels customizados do LTX
97
- RUN pip -v install --no-build-isolation git+https://github.com/Lightricks/LTX-Video-Q8-Kernels.git
98
-
99
  # =============================================================================
100
  # INSTALAÇÃO DO RESTANTE DAS DEPENDÊNCIAS
101
  # =============================================================================
 
76
  numpy
77
 
78
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
79
  # =============================================================================
80
  # INSTALAÇÃO DO RESTANTE DAS DEPENDÊNCIAS
81
  # =============================================================================
start.sh CHANGED
@@ -4,16 +4,25 @@
4
  # =============================================================================
5
  set -euo pipefail
6
 
7
- python3 -c "
8
- import os
9
- import subprocess
10
- import tempfile
11
- import os
12
- import sys
13
- import shutil
14
- from pathlib import Path
15
- #os.system(\"pip install --upgrade --pre --extra-index-url https://download.pytorch.org/whl/nightly/cu12 'torch<2.9' spaces\")
16
- "
 
 
 
 
 
 
 
 
 
17
 
18
  # =============================================================================
19
  # GLOBAL VARIABLE INITIALIZATION
 
4
  # =============================================================================
5
  set -euo pipefail
6
 
7
+ # 2. Instala a wheel pré-compilada do Flash Attention 2.8.0
8
+ # Esta é a forma mais rápida e estável de instalar, evitando compilação demorada.
9
+ # Esta wheel é compatível com PyTorch 2.8.0 e CUDA 12.x
10
+ RUN git clone https://github.com/Dao-AILab/flash-attention && \
11
+ cd flash-attention/hopper && \
12
+ pip -v setup.py install && \
13
+ export PYTHONPATH=$PWD && \
14
+ pytest -q -s test_flash_attn.py
15
+
16
+
17
+ # 3. Compila e instala o NVIDIA Apex
18
+ RUN git clone https://github.com/NVIDIA/apex.git && \
19
+ cd apex && \
20
+ pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./ && \
21
+ cd .. && rm -rf apex
22
+
23
+ # 4. Instala os Kernels customizados do LTX
24
+ RUN pip -v install --no-build-isolation git+https://github.com/Lightricks/LTX-Video-Q8-Kernels.git
25
+
26
 
27
  # =============================================================================
28
  # GLOBAL VARIABLE INITIALIZATION