
๐ก There's a 61,848.0x difference between the highest and lowest energy use in this leaderboard.
Select Model Class
Sort
๐ก There's a 21.9x difference between the highest and lowest energy use in this class.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
distilgpt2 | distilbert | 1.31 | โ โ โ โ โ |
opt-125m | 1.94 | โ โ โ โ โ | |
gpt2 | openai-community | 2.15 | โ โ โ โ โ |
openai-gpt | openai-community | 2.70 | โ โ โ โ โ |
gpt2-medium | openai-community | 3.96 | โ โ โ โ โ |
OLMo-1B-hf | allenai | 5.59 | โ โ โ โ โ |
gpt2-large | openai-community | 6.12 | โ โ โ โ โ |
phi-1_5 | microsoft | 6.29 | โ โ โ โ โ |
phi-1 | microsoft | 6.39 | โ โ โ โ โ |
SmolLM-135M | HuggingFaceTB | 7.28 | โ โ โ โ |
SmolLM-1.7B | HuggingFaceTB | 7.64 | โ โ โ โ |
SmolLM2-1.7B-Instruct | HuggingFaceTB | 7.71 | โ โ โ โ |
opt-2.7b | 8.06 | โ โ โ โ | |
SmolLM-360M | HuggingFaceTB | 8.10 | โ โ โ โ |
gemma-2b | 8.68 | โ โ โ โ | |
gpt2-xl | openai-community | 8.92 | โ โ โ โ |
phi-2 | microsoft | 9.86 | โ โ โ โ |
falcon-7b | tiiuae | 15.88 | โ โ โ |
Llama-2-7b-hf | meta-llama | 16.44 | โ โ โ |
OLMo-1.7-7B-hf | allenai | 16.83 | โ โ โ |
Meta-Llama-3-8B | meta-llama | 17.33 | โ โ โ |
Meta-Llama-3.1-8B | meta-llama | 17.38 | โ โ โ |
aya-23-8B | CohereForAI | 17.82 | โ โ |
gemma-2-2b-it | 18.64 | โ โ | |
gemma-7b | 18.90 | โ โ | |
Starling-LM-7B-alpha | berkeley-nest | 19.01 | โ โ |
Mistral-7B-v0.1 | mistralai | 19.13 | โ โ |
xLAM-7b-r | Salesforce | 19.17 | โ โ |
Ministral-8B-Instruct-2410 | mistralai | 20.87 | โ โ |
Yi-1.5-9B | 01-ai | 23.00 | โ โ |
Llama-2-13b-hf | meta-llama | 26.10 | โ |
phi-4 | microsoft | 28.74 | โ |
Sort
๐ก There's a 8.8x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
mitsua-diffusion-one | Mitsua | 186.81 | โ โ โ โ โ |
Counterfeit-V2.5 | gsdf | 187.37 | โ โ โ โ โ |
sd-turbo | stabilityai | 189.86 | โ โ โ โ โ |
openjourney | prompthero | 196.88 | โ โ โ โ โ |
openjourney-v4 | prompthero | 203.37 | โ โ โ โ โ |
LCM_Dreamshaper_v7 | SimianLuo | 322.04 | โ โ โ โ โ |
sdxl-turbo | stabilityai | 385.57 | โ โ โ โ โ |
stable-diffusion-2-1 | stabilityai | 534.47 | โ โ โ โ |
dreamlike-photoreal-2.0 | dreamlike-art | 581.33 | โ โ โ โ |
epiCPhotoGasm | Yntec | 586.57 | โ โ โ โ |
stable-cascade | stabilityai | 1,214.36 | โ โ |
stable-diffusion-xl-base-1.0 | stabilityai | 1,639.85 | โ |
Sort
๐ก There's a 128.6x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
distilbert-imdb | lvwerra | 0.22 | โ โ โ โ โ |
distilbert-base-uncased-finetuned-sst-2-english | distilbert | 0.22 | โ โ โ โ โ |
distilbert-base-multilingual-cased-sentiments-student | lxyuan | 0.22 | โ โ โ โ โ |
electra-base-emotion | bhadresh-savani | 0.25 | โ โ โ โ โ |
gpt2-imdb-sentiment-classifier | mnoukhov | 0.32 | โ โ โ โ โ |
bert-base-multilingual-uncased-sentiment | nlptown | 0.36 | โ โ โ โ โ |
gpt2-medium-finetuned-sst2-sentiment | michelecafagna26 | 0.80 | โ โ โ โ โ |
bert-large-sst2 | Cheng98 | 0.92 | โ โ โ โ โ |
t5-small | google-t5 | 2.22 | โ โ โ โ โ |
t5-base | google-t5 | 4.13 | โ โ โ โ โ |
t5-large | google-t5 | 7.92 | โ โ โ โ |
t5-3b | google-t5 | 11.68 | โ โ โ |
t5-11b | google-t5 | 27.79 | โ |
Sort
๐ก There's a 8.8x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
resnet-18 | microsoft | 0.30 | โ โ โ โ โ |
vit-tiny-patch16-224 | WinKawaks | 0.38 | โ โ โ โ โ |
resnet-50 | microsoft | 0.39 | โ โ โ โ โ |
mobilenet_v2_1.0_224 | 0.41 | โ โ โ โ โ | |
convnext-tiny-224 | 0.45 | โ โ โ โ โ | |
mobilevit-small | apple | 0.51 | โ โ โ โ โ |
vit-base-patch16-224 | 0.58 | โ โ โ โ โ | |
beit-base-patch16-224 | microsoft | 0.74 | โ โ โ โ โ |
vit-base-patch32-384 | 0.76 | โ โ โ โ โ | |
swinv2-tiny-patch4-window8-256 | microsoft | 0.77 | โ โ โ โ |
beit-base-patch16-224-pt22k-ft22k | microsoft | 0.78 | โ โ โ โ |
bit-50 | 0.83 | โ โ โ โ | |
swinv2-tiny-patch4-window16-256 | microsoft | 0.85 | โ โ โ โ |
convnext-large-224 | 0.97 | โ โ โ โ | |
vit-base-patch16-384 | 0.99 | โ โ โ โ | |
convnext-base-384-22k-1k | 1.12 | โ โ โ โ | |
vit-large-patch32-384 | 1.16 | โ โ โ โ | |
swinv2-large-patch4-window12-192-22k | microsoft | 1.29 | โ โ โ |
swinv2-large-patch4-window12-192-22k | microsoft | 1.39 | โ โ โ |
swin-base-patch4-window12-384 | microsoft | 1.53 | โ โ โ |
efficientnet-b7 | 1.85 | โ โ | |
mit-b5 | nvidia | 2.49 | โ |
vision-perceiver-conv | deepmind | 2.64 | โ |
Sort
๐ก There's a 3.9x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
pix2struct-base | 45.75 | โ โ โ โ โ | |
blip-image-captioning-base | Salesforce | 47.12 | โ โ โ โ โ |
blip-image-captioning-large | Salesforce | 48.51 | โ โ โ โ โ |
git-base | microsoft | 74.71 | โ โ โ โ |
blip2-opt-2.7b | Salesforce | 101.34 | โ โ โ |
blip2-flan-t5-xl | Salesforce | 102.15 | โ โ โ |
vlrm-blip2-opt-2.7b | sashakunitsyn | 103.35 | โ โ โ |
git-large-coco | microsoft | 170.32 | โ |
blip2-opt-6.7b | Salesforce | 174.96 | โ |
blip2-flan-t5-xxl | Salesforce | 179.93 | โ |
Sort
๐ก There's a 44.3x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
bart_summarizer_model | KipperDev | 0.78 | โ โ โ โ โ |
distilbart-xsum-12-1 | sshleifer | 1.05 | โ โ โ โ โ |
distilbart-cnn-12-6 | sshleifer | 1.48 | โ โ โ โ โ |
bart-large-cnn | 2.04 | โ โ โ โ โ | |
t5-small | google-t5 | 2.27 | โ โ โ โ โ |
bigbird-pegasus-large-arxiv | 3.52 | โ โ โ โ โ | |
t5-base | google-t5 | 4.23 | โ โ โ โ โ |
led-large-book-summary | pszemraj | 4.29 | โ โ โ โ โ |
t5-large | google-t5 | 8.68 | โ โ โ โ |
t5-3b | google-t5 | 13.24 | โ โ โ โ |
t5-11b | google-t5 | 34.81 | โ |
Sort
๐ก There's a 139.9x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
wav2vec2-base-960h | 0.62 | โ โ โ โ โ | |
sew-d-base-plus-400k-ft-ls100h | asapp | 1.54 | โ โ โ โ โ |
hubert-large-ls960-ft | 1.62 | โ โ โ โ โ | |
mms-1b-all | 4.28 | โ โ โ โ โ | |
whisper-tiny | openai | 13.44 | โ โ โ โ โ |
distil-small.en | distil-whisper | 15.57 | โ โ โ โ โ |
whisper-base | openai | 16.55 | โ โ โ โ โ |
distil-medium.en | distil-whisper | 16.97 | โ โ โ โ โ |
s2t-small-librispeech-asr | 17.20 | โ โ โ โ โ | |
distil-large-v2 | distil-whisper | 21.52 | โ โ โ โ |
whisper-small | openai | 29.97 | โ โ โ โ |
whisper-medium | openai | 61.42 | โ โ |
whisper-large-v3 | openai | 86.68 | โ |
Sort
๐ก There's a 7.9x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
yolos-tiny | hustvl | 1.00 | โ โ โ โ โ |
conditional-detr-resnet-50 | microsoft | 2.14 | โ โ โ โ โ |
detr-resnet-101 | 2.53 | โ โ โ โ | |
detr-resnet-50-dc5 | 3.28 | โ โ โ โ | |
yolos-small | hustvl | 3.28 | โ โ โ โ |
detr-resnet-50-dc5 | 3.29 | โ โ โ โ | |
yolos-base | hustvl | 7.98 | โ |
Sort
๐ก There's a 49.1x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
GIST-all-MiniLM-L6-v2 | avsolatorio | 0.11 | โ โ โ โ โ |
bge-small-en-v1.5 | BAAI | 0.19 | โ โ โ โ โ |
gte-base | thenlper | 0.25 | โ โ โ โ โ |
bge-base-en-v1.5 | BAAI | 0.25 | โ โ โ โ โ |
e5-base-v2 | intfloat | 0.25 | โ โ โ โ โ |
GIST-Embedding-v0 | avsolatorio | 0.26 | โ โ โ โ โ |
nomic-embed-text-v1 | nomic-ai | 0.38 | โ โ โ โ โ |
ember-v1 | llmrails | 0.58 | โ โ โ โ โ |
GIST-large-Embedding-v0 | avsolatorio | 0.58 | โ โ โ โ โ |
mxbai-embed-large-v1 | mixedbread-ai | 0.59 | โ โ โ โ โ |
gte-large | thenlper | 0.59 | โ โ โ โ โ |
UAE-Large-V1 | WhereIsAI | 0.60 | โ โ โ โ โ |
e5-large-v2 | intfloat | 0.60 | โ โ โ โ โ |
multilingual-e5-large-instruct | intfloat | 0.72 | โ โ โ โ โ |
udever-bloom-1b1 | izhx | 0.97 | โ โ โ โ โ |
udever-bloom-3b | izhx | 2.15 | โ โ โ |
udever-bloom-7b1 | izhx | 4.70 | โ |
GritLM-7B | GritLM | 5.03 | โ |
SFR-Embedding-Mistral | Salesforce | 5.22 | โ |
Sort
๐ก There's a 3,215.3x difference between the highest and lowest energy use in this task.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
bert-tiny-finetuned-squadv2 | mrm8488 | 0.06 | โ โ โ โ โ |
dynamic_tinybert | Intel | 0.21 | โ โ โ โ โ |
question_answering_v2 | Falconsai | 0.23 | โ โ โ โ โ |
distilbert-base-cased-distilled-squad | distilbert | 0.24 | โ โ โ โ โ |
minilm-uncased-squad2 | deepset | 0.25 | โ โ โ โ โ |
electra-base-squad2 | deepset | 0.47 | โ โ โ โ โ |
deberta-v3-base-squad2 | deepset | 0.81 | โ โ โ โ โ |
mdeberta-v3-base-squad2 | timpal0l | 0.86 | โ โ โ โ โ |
mobilebert-uncased-squad-v2 | csarron | 0.94 | โ โ โ โ โ |
bert-large-uncased-whole-word-masking-squad2 | deepset | 1.05 | โ โ โ โ โ |
longformer-base-4096-finetuned-squadv2 | mrm8488 | 1.79 | โ โ โ โ โ |
deberta-v3-large-squad2 | deepset | 1.88 | โ โ โ โ โ |
longformer-large-4096-finetuned-triviaqa | allenai | 3.97 | โ โ โ โ โ |
t5-small | google-t5 | 20.64 | โ โ โ โ โ |
t5-base | google-t5 | 34.36 | โ โ โ โ โ |
t5-large | google-t5 | 72.28 | โ โ โ |
t5-3b | google-t5 | 87.70 | โ โ โ |
t5-11b | google-t5 | 178.13 | โ |
Sort
๐ก There's a 61,848.0x difference between the highest and lowest energy use in this leaderboard.
Model | Provider | GPU Energy (Wh) | Score |
---|---|---|---|
bert-tiny-finetuned-squadv2 | mrm8488 | 0.06 | โ โ โ โ โ |
GIST-all-MiniLM-L6-v2 | avsolatorio | 0.11 | โ โ โ โ โ |
bge-small-en-v1.5 | BAAI | 0.19 | โ โ โ โ โ |
dynamic_tinybert | Intel | 0.21 | โ โ โ โ โ |
distilbert-imdb | lvwerra | 0.22 | โ โ โ โ โ |
distilbert-base-uncased-finetuned-sst-2-english | distilbert | 0.22 | โ โ โ โ โ |
distilbert-base-multilingual-cased-sentiments-student | lxyuan | 0.22 | โ โ โ โ โ |
question_answering_v2 | Falconsai | 0.23 | โ โ โ โ โ |
distilbert-base-cased-distilled-squad | distilbert | 0.24 | โ โ โ โ โ |
gte-base | thenlper | 0.25 | โ โ โ โ โ |
bge-base-en-v1.5 | BAAI | 0.25 | โ โ โ โ โ |
electra-base-emotion | bhadresh-savani | 0.25 | โ โ โ โ โ |
minilm-uncased-squad2 | deepset | 0.25 | โ โ โ โ โ |
e5-base-v2 | intfloat | 0.25 | โ โ โ โ โ |
GIST-Embedding-v0 | avsolatorio | 0.26 | โ โ โ โ โ |
resnet-18 | microsoft | 0.30 | โ โ โ โ โ |
gpt2-imdb-sentiment-classifier | mnoukhov | 0.32 | โ โ โ โ โ |
bert-base-multilingual-uncased-sentiment | nlptown | 0.36 | โ โ โ โ โ |
nomic-embed-text-v1 | nomic-ai | 0.38 | โ โ โ โ โ |
vit-tiny-patch16-224 | WinKawaks | 0.38 | โ โ โ โ โ |
resnet-50 | microsoft | 0.39 | โ โ โ โ โ |
mobilenet_v2_1.0_224 | 0.41 | โ โ โ โ โ | |
convnext-tiny-224 | 0.45 | โ โ โ โ โ | |
electra-base-squad2 | deepset | 0.47 | โ โ โ โ โ |
mobilevit-small | apple | 0.51 | โ โ โ โ โ |
ember-v1 | llmrails | 0.58 | โ โ โ โ โ |
GIST-large-Embedding-v0 | avsolatorio | 0.58 | โ โ โ โ โ |
vit-base-patch16-224 | 0.58 | โ โ โ โ โ | |
mxbai-embed-large-v1 | mixedbread-ai | 0.59 | โ โ โ โ โ |
gte-large | thenlper | 0.59 | โ โ โ โ โ |
UAE-Large-V1 | WhereIsAI | 0.60 | โ โ โ โ โ |
e5-large-v2 | intfloat | 0.60 | โ โ โ โ โ |
wav2vec2-base-960h | 0.62 | โ โ โ โ โ | |
multilingual-e5-large-instruct | intfloat | 0.72 | โ โ โ โ โ |
beit-base-patch16-224 | microsoft | 0.74 | โ โ โ โ โ |
vit-base-patch32-384 | 0.76 | โ โ โ โ โ | |
swinv2-tiny-patch4-window8-256 | microsoft | 0.77 | โ โ โ โ |
beit-base-patch16-224-pt22k-ft22k | microsoft | 0.78 | โ โ โ โ |
bart_summarizer_model | KipperDev | 0.78 | โ โ โ โ โ |
gpt2-medium-finetuned-sst2-sentiment | michelecafagna26 | 0.80 | โ โ โ โ โ |
deberta-v3-base-squad2 | deepset | 0.81 | โ โ โ โ โ |
bit-50 | 0.83 | โ โ โ โ | |
swinv2-tiny-patch4-window16-256 | microsoft | 0.85 | โ โ โ โ |
mdeberta-v3-base-squad2 | timpal0l | 0.86 | โ โ โ โ โ |
bert-large-sst2 | Cheng98 | 0.92 | โ โ โ โ โ |
mobilebert-uncased-squad-v2 | csarron | 0.94 | โ โ โ โ โ |
udever-bloom-1b1 | izhx | 0.97 | โ โ โ โ โ |
convnext-large-224 | 0.97 | โ โ โ โ | |
vit-base-patch16-384 | 0.99 | โ โ โ โ | |
yolos-tiny | hustvl | 1.00 | โ โ โ โ โ |
bert-large-uncased-whole-word-masking-squad2 | deepset | 1.05 | โ โ โ โ โ |
distilbart-xsum-12-1 | sshleifer | 1.05 | โ โ โ โ โ |
convnext-base-384-22k-1k | 1.12 | โ โ โ โ | |
vit-large-patch32-384 | 1.16 | โ โ โ โ | |
swinv2-large-patch4-window12-192-22k | microsoft | 1.29 | โ โ โ |
distilgpt2 | distilbert | 1.31 | โ โ โ โ โ |
distilbart-cnn-12-6 | sshleifer | 1.48 | โ โ โ โ โ |
swin-base-patch4-window12-384 | microsoft | 1.53 | โ โ โ |
sew-d-base-plus-400k-ft-ls100h | asapp | 1.54 | โ โ โ โ โ |
hubert-large-ls960-ft | 1.62 | โ โ โ โ โ | |
longformer-base-4096-finetuned-squadv2 | mrm8488 | 1.79 | โ โ โ โ โ |
efficientnet-b7 | 1.85 | โ โ | |
deberta-v3-large-squad2 | deepset | 1.88 | โ โ โ โ โ |
opt-125m | 1.94 | โ โ โ โ โ | |
bart-large-cnn | 2.04 | โ โ โ โ โ | |
conditional-detr-resnet-50 | microsoft | 2.14 | โ โ โ โ โ |
gpt2 | openai-community | 2.15 | โ โ โ โ โ |
udever-bloom-3b | izhx | 2.15 | โ โ โ |
t5-small | google-t5 | 2.22 | โ โ โ โ โ |
mit-b5 | nvidia | 2.49 | โ |
detr-resnet-101 | 2.53 | โ โ โ โ | |
vision-perceiver-conv | deepmind | 2.64 | โ |
openai-gpt | openai-community | 2.70 | โ โ โ โ โ |
yolos-small | hustvl | 3.28 | โ โ โ โ |
detr-resnet-50-dc5 | 3.29 | โ โ โ โ | |
bigbird-pegasus-large-arxiv | 3.52 | โ โ โ โ โ | |
gpt2-medium | openai-community | 3.96 | โ โ โ โ โ |
longformer-large-4096-finetuned-triviaqa | allenai | 3.97 | โ โ โ โ โ |
t5-base | google-t5 | 4.13 | โ โ โ โ โ |
mms-1b-all | 4.28 | โ โ โ โ โ | |
led-large-book-summary | pszemraj | 4.29 | โ โ โ โ โ |
udever-bloom-7b1 | izhx | 4.70 | โ |
GritLM-7B | GritLM | 5.03 | โ |
SFR-Embedding-Mistral | Salesforce | 5.22 | โ |
OLMo-1B-hf | allenai | 5.59 | โ โ โ โ โ |
gpt2-large | openai-community | 6.12 | โ โ โ โ โ |
phi-1_5 | microsoft | 6.29 | โ โ โ โ โ |
phi-1 | microsoft | 6.39 | โ โ โ โ โ |
SmolLM-135M | HuggingFaceTB | 7.28 | โ โ โ โ |
SmolLM-1.7B | HuggingFaceTB | 7.64 | โ โ โ โ |
SmolLM2-1.7B-Instruct | HuggingFaceTB | 7.71 | โ โ โ โ |
t5-large | google-t5 | 7.92 | โ โ โ โ |
yolos-base | hustvl | 7.98 | โ |
opt-2.7b | 8.06 | โ โ โ โ | |
SmolLM-360M | HuggingFaceTB | 8.10 | โ โ โ โ |
gemma-2b | 8.68 | โ โ โ โ | |
gpt2-xl | openai-community | 8.92 | โ โ โ โ |
phi-2 | microsoft | 9.86 | โ โ โ โ |
t5-3b | google-t5 | 11.68 | โ โ โ |
whisper-tiny | openai | 13.44 | โ โ โ โ โ |
distil-small.en | distil-whisper | 15.57 | โ โ โ โ โ |
falcon-7b | tiiuae | 15.88 | โ โ โ |
Llama-2-7b-hf | meta-llama | 16.44 | โ โ โ |
whisper-base | openai | 16.55 | โ โ โ โ โ |
OLMo-1.7-7B-hf | allenai | 16.83 | โ โ โ |
distil-medium.en | distil-whisper | 16.97 | โ โ โ โ โ |
s2t-small-librispeech-asr | 17.20 | โ โ โ โ โ | |
Meta-Llama-3-8B | meta-llama | 17.33 | โ โ โ |
Meta-Llama-3.1-8B | meta-llama | 17.38 | โ โ โ |
aya-23-8B | CohereForAI | 17.82 | โ โ |
gemma-2-2b-it | 18.64 | โ โ | |
gemma-7b | 18.90 | โ โ | |
Starling-LM-7B-alpha | berkeley-nest | 19.01 | โ โ |
Mistral-7B-v0.1 | mistralai | 19.13 | โ โ |
xLAM-7b-r | Salesforce | 19.17 | โ โ |
Ministral-8B-Instruct-2410 | mistralai | 20.87 | โ โ |
distil-large-v2 | distil-whisper | 21.52 | โ โ โ โ |
Yi-1.5-9B | 01-ai | 23.00 | โ โ |
Llama-2-13b-hf | meta-llama | 26.10 | โ |
t5-11b | google-t5 | 27.79 | โ |
phi-4 | microsoft | 28.74 | โ |
whisper-small | openai | 29.97 | โ โ โ โ |
pix2struct-base | 45.75 | โ โ โ โ โ | |
blip-image-captioning-base | Salesforce | 47.12 | โ โ โ โ โ |
blip-image-captioning-large | Salesforce | 48.51 | โ โ โ โ โ |
QwQ-32B-Preview | Qwen | 54.56 | โ โ โ โ โ |
Yi-1.5-34B | 01-ai | 56.08 | โ โ โ โ โ |
whisper-medium | openai | 61.42 | โ โ |
git-base | microsoft | 74.71 | โ โ โ โ |
whisper-large-v3 | openai | 86.68 | โ |
blip2-opt-2.7b | Salesforce | 101.34 | โ โ โ |
blip2-flan-t5-xl | Salesforce | 102.15 | โ โ โ |
vlrm-blip2-opt-2.7b | sashakunitsyn | 103.35 | โ โ โ |
git-large-coco | microsoft | 170.32 | โ |
blip2-opt-6.7b | Salesforce | 174.96 | โ |
blip2-flan-t5-xxl | Salesforce | 179.93 | โ |
mitsua-diffusion-one | Mitsua | 186.81 | โ โ โ โ โ |
Counterfeit-V2.5 | gsdf | 187.37 | โ โ โ โ โ |
sd-turbo | stabilityai | 189.86 | โ โ โ โ โ |
openjourney | prompthero | 196.88 | โ โ โ โ โ |
openjourney-v4 | prompthero | 203.37 | โ โ โ โ โ |
LCM_Dreamshaper_v7 | SimianLuo | 322.04 | โ โ โ โ โ |
sdxl-turbo | stabilityai | 385.57 | โ โ โ โ โ |
stable-diffusion-2-1 | stabilityai | 534.47 | โ โ โ โ |
dreamlike-photoreal-2.0 | dreamlike-art | 581.33 | โ โ โ โ |
epiCPhotoGasm | Yntec | 586.57 | โ โ โ โ |
Mixtral-8x7B-v0.1 | mistralai | 615.39 | โ |
stable-cascade | stabilityai | 1,214.36 | โ โ |
stable-diffusion-xl-base-1.0 | stabilityai | 1,639.85 | โ |
Llama-2-70b-hf | meta-llama | 1,648.51 | โ โ โ โ โ |
Meta-Llama-3-70B | meta-llama | 1,719.66 | โ โ โ โ โ |
TextBase-70B | crm-sf | 1,721.56 | โ โ โ โ โ |
Qwen2.5-72B-Instruct | Qwen | 1,869.55 | โ โ โ โ โ |
c4ai-command-r-plus | CohereForAI | 3,426.38 | โ |
Last updated: February 2025