include latex tables and rename script to create them
Browse files- bootstrap_confidence_intervals_Macro_F1_table.txt +61 -0
- bootstrap_confidence_intervals_QWK_table.txt +61 -0
- bootstrap_confidence_intervals_Weighted_F1_table.txt +61 -0
- create_latex_evaluation_results.py → create_latex_tables.py +114 -15
- evaluation_table_avg_only.txt +60 -0
- evaluation_table_full.txt +150 -0
bootstrap_confidence_intervals_Macro_F1_table.txt
ADDED
@@ -0,0 +1,61 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
\begin{tabular}{c|c c| c c| c c| c c| c c}
|
2 |
+
\hline\hline
|
3 |
+
& \multicolumn{2}{c|}{\textbf{C1}} & \multicolumn{2}{c|}{\textbf{C2}} & \multicolumn{2}{c|}{\textbf{C3}} & \multicolumn{2}{c|}{\textbf{C4}} & \multicolumn{2}{c|}{\textbf{C5}} \\ \hline
|
4 |
+
& F1-Macro$_{\text{-lower-bound}}$ & F1-Macro$_{\text{-upper-bound}}$ & F1-Macro$_{\text{-lower-bound}}$ & F1-Macro$_{\text{-upper-bound}}$ & F1-Macro$_{\text{-lower-bound}}$ & F1-Macro$_{\text{-upper-bound}}$ & F1-Macro$_{\text{-lower-bound}}$ & F1-Macro$_{\text{-upper-bound}}$ & F1-Macro$_{\text{-lower-bound}}$ & F1-Macro$_{\text{-upper-bound}}$ \\ \hline
|
5 |
+
deepseekR1-extractor-full\_context & 0.01 & 0.06 & 0.19 & 0.38 & 0.24 & 0.40 & 0.26 & 0.50 & 0.30 & 0.45 \\
|
6 |
+
\hline
|
7 |
+
deepseekR1-graderPrompt-essay\_only & 0.10 & 0.24 & 0.01 & 0.08 & 0.13 & 0.27 & 0.12 & 0.28 & 0.24 & 0.39 \\
|
8 |
+
deepseekR1-graderPrompt-full\_context & 0.01 & 0.12 & 0.25 & 0.47 & 0.21 & 0.41 & 0.20 & 0.41 & 0.28 & 0.43 \\
|
9 |
+
\hline
|
10 |
+
deepseekR1-studentPrompt-essay\_only & 0.05 & 0.17 & 0.10 & 0.20 & 0.23 & 0.41 & 0.15 & 0.40 & 0.30 & 0.44 \\
|
11 |
+
deepseekR1-studentPrompt-full\_context & 0.02 & 0.07 & 0.19 & 0.40 & 0.33 & 0.57 & 0.13 & 0.32 & 0.29 & 0.48 \\
|
12 |
+
\hline
|
13 |
+
gpt4o-extractor-full\_context & 0.18 & 0.31 & 0.24 & 0.47 & 0.19 & 0.38 & 0.18 & 0.39 & 0.09 & 0.21 \\
|
14 |
+
\hline
|
15 |
+
gpt4o-graderPrompt-essay\_only & 0.15 & 0.27 & 0.11 & 0.29 & 0.14 & 0.26 & 0.16 & 0.39 & 0.25 & 0.39 \\
|
16 |
+
gpt4o-graderPrompt-full\_context & 0.19 & 0.31 & 0.24 & 0.44 & 0.19 & 0.39 & 0.19 & 0.33 & 0.17 & 0.31 \\
|
17 |
+
\hline
|
18 |
+
gpt4o-studentPrompt-essay\_only & 0.15 & 0.29 & 0.12 & 0.23 & 0.18 & 0.34 & 0.17 & 0.42 & 0.23 & 0.35 \\
|
19 |
+
gpt4o-studentPrompt-full\_context & 0.15 & 0.25 & 0.25 & 0.50 & 0.19 & 0.36 & 0.16 & 0.37 & 0.10 & 0.23 \\
|
20 |
+
\hline
|
21 |
+
sabia3-extractor-full\_context & 0.08 & 0.12 & 0.11 & 0.22 & 0.14 & 0.27 & 0.13 & 0.25 & 0.16 & 0.28 \\
|
22 |
+
\hline
|
23 |
+
sabia3-graderPrompt-essay\_only & 0.16 & 0.32 & 0.05 & 0.14 & 0.20 & 0.35 & 0.14 & 0.34 & 0.26 & 0.41 \\
|
24 |
+
sabia3-graderPrompt-full\_context & 0.17 & 0.33 & 0.24 & 0.48 & 0.23 & 0.48 & 0.20 & 0.45 & 0.20 & 0.36 \\
|
25 |
+
\hline
|
26 |
+
sabia3-studentPrompt-essay\_only & 0.26 & 0.45 & 0.05 & 0.12 & 0.16 & 0.31 & 0.19 & 0.43 & 0.23 & 0.36 \\
|
27 |
+
sabia3-studentPrompt-full\_context & 0.26 & 0.50 & 0.20 & 0.41 & 0.12 & 0.33 & 0.15 & 0.42 & 0.19 & 0.35 \\
|
28 |
+
\hline\hline
|
29 |
+
llama3.1-8b-lora-essay-only-r16 & 0.40 & 0.67 & 0.19 & 0.35 & 0.19 & 0.35 & 0.20 & 0.43 & 0.14 & 0.29 \\
|
30 |
+
\hline
|
31 |
+
llama3.1-8b-lora-essay-only-r8 & 0.36 & 0.64 & 0.11 & 0.23 & 0.18 & 0.35 & 0.18 & 0.31 & 0.19 & 0.35 \\
|
32 |
+
\hline
|
33 |
+
llama3.1-8b-lora-full-context-r16 & 0.38 & 0.64 & 0.14 & 0.32 & 0.16 & 0.32 & 0.18 & 0.34 & 0.15 & 0.37 \\
|
34 |
+
\hline
|
35 |
+
llama3.1-8b-lora-full-context-r8 & 0.30 & 0.53 & 0.15 & 0.31 & 0.17 & 0.34 & 0.26 & 0.55 & 0.11 & 0.33 \\
|
36 |
+
\hline
|
37 |
+
phi3.5-mini-lora-essay-only-r16 & 0.23 & 0.44 & 0.15 & 0.31 & 0.16 & 0.32 & 0.18 & 0.41 & 0.13 & 0.24 \\
|
38 |
+
\hline
|
39 |
+
phi3.5-mini-lora-essay-only-r8 & 0.23 & 0.44 & 0.15 & 0.31 & 0.16 & 0.32 & 0.18 & 0.41 & 0.13 & 0.24 \\
|
40 |
+
\hline
|
41 |
+
phi3.5-mini-lora-full-context-r16 & 0.13 & 0.25 & 0.09 & 0.20 & 0.21 & 0.37 & 0.08 & 0.15 & 0.10 & 0.28 \\
|
42 |
+
\hline
|
43 |
+
phi3.5-mini-lora-full-context-r8 & 0.13 & 0.25 & 0.09 & 0.20 & 0.21 & 0.37 & 0.08 & 0.15 & 0.10 & 0.28 \\
|
44 |
+
\hline
|
45 |
+
phi4-lora-essay-only-r16 & 0.40 & 0.67 & 0.14 & 0.29 & 0.18 & 0.33 & 0.25 & 0.52 & 0.30 & 0.45 \\
|
46 |
+
\hline
|
47 |
+
phi4-lora-essay-only-r8 & 0.37 & 0.64 & 0.21 & 0.39 & 0.18 & 0.32 & 0.19 & 0.42 & 0.36 & 0.51 \\
|
48 |
+
\hline
|
49 |
+
phi4-lora-full-context-r16 & 0.31 & 0.55 & 0.32 & 0.54 & 0.32 & 0.53 & 0.23 & 0.48 & 0.21 & 0.39 \\
|
50 |
+
\hline
|
51 |
+
phi4-lora-full-context-r8 & 0.36 & 0.61 & 0.31 & 0.54 & 0.27 & 0.48 & 0.24 & 0.48 & 0.23 & 0.37 \\
|
52 |
+
\hline\hline
|
53 |
+
bertimbau-base-essay-only & 0.30 & 0.54 & 0.18 & 0.36 & 0.16 & 0.31 & 0.25 & 0.52 & 0.24 & 0.38 \\
|
54 |
+
\hline
|
55 |
+
bertimbau-large-essay-only & 0.37 & 0.65 & 0.25 & 0.44 & 0.12 & 0.26 & 0.30 & 0.64 & 0.23 & 0.38 \\
|
56 |
+
\hline
|
57 |
+
bertugues-base-essay-only & 0.32 & 0.55 & 0.10 & 0.20 & 0.19 & 0.34 & 0.23 & 0.48 & 0.17 & 0.31 \\
|
58 |
+
\hline
|
59 |
+
mbert-base-essay-only & 0.29 & 0.50 & 0.14 & 0.26 & 0.17 & 0.32 & 0.23 & 0.50 & 0.05 & 0.11 \\
|
60 |
+
\hline\hline
|
61 |
+
\end{tabular}%
|
bootstrap_confidence_intervals_QWK_table.txt
ADDED
@@ -0,0 +1,61 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
\begin{tabular}{c|c c| c c| c c| c c| c c}
|
2 |
+
\hline\hline
|
3 |
+
& \multicolumn{2}{c|}{\textbf{C1}} & \multicolumn{2}{c|}{\textbf{C2}} & \multicolumn{2}{c|}{\textbf{C3}} & \multicolumn{2}{c|}{\textbf{C4}} & \multicolumn{2}{c|}{\textbf{C5}} \\ \hline
|
4 |
+
& QWK$_{\text{lower-bound}}$ & QWK$_{\text{upper-bound}}$ & QWK$_{\text{lower-bound}}$ & QWK$_{\text{upper-bound}}$ & QWK$_{\text{lower-bound}}$ & QWK$_{\text{upper-bound}}$ & QWK$_{\text{lower-bound}}$ & QWK$_{\text{upper-bound}}$ & QWK$_{\text{lower-bound}}$ & QWK$_{\text{upper-bound}}$ \\ \hline
|
5 |
+
deepseekR1-extractor-full\_context & 0.15 & 0.26 & 0.39 & 0.63 & 0.40 & 0.64 & 0.45 & 0.66 & 0.48 & 0.73 \\
|
6 |
+
\hline
|
7 |
+
deepseekR1-graderPrompt-essay\_only & 0.36 & 0.51 & -0.01 & 0.08 & 0.23 & 0.54 & 0.37 & 0.56 & 0.40 & 0.68 \\
|
8 |
+
deepseekR1-graderPrompt-full\_context & 0.14 & 0.26 & 0.39 & 0.63 & 0.49 & 0.69 & 0.45 & 0.64 & 0.46 & 0.72 \\
|
9 |
+
\hline
|
10 |
+
deepseekR1-studentPrompt-essay\_only & 0.27 & 0.43 & -0.14 & 0.11 & 0.23 & 0.53 & 0.41 & 0.61 & 0.41 & 0.67 \\
|
11 |
+
deepseekR1-studentPrompt-full\_context & 0.27 & 0.43 & 0.30 & 0.53 & 0.65 & 0.80 & 0.39 & 0.58 & 0.45 & 0.69 \\
|
12 |
+
\hline
|
13 |
+
gpt4o-extractor-full\_context & 0.41 & 0.64 & 0.32 & 0.60 & 0.46 & 0.66 & 0.37 & 0.61 & 0.20 & 0.43 \\
|
14 |
+
\hline
|
15 |
+
gpt4o-graderPrompt-essay\_only & 0.40 & 0.56 & 0.15 & 0.42 & 0.15 & 0.41 & 0.40 & 0.60 & 0.41 & 0.66 \\
|
16 |
+
gpt4o-graderPrompt-full\_context & 0.47 & 0.63 & 0.43 & 0.68 & 0.32 & 0.56 & 0.39 & 0.60 & 0.33 & 0.61 \\
|
17 |
+
\hline
|
18 |
+
gpt4o-studentPrompt-essay\_only & 0.43 & 0.58 & 0.05 & 0.34 & 0.24 & 0.51 & 0.40 & 0.60 & 0.41 & 0.67 \\
|
19 |
+
gpt4o-studentPrompt-full\_context & 0.39 & 0.56 & 0.38 & 0.63 & 0.42 & 0.63 & 0.38 & 0.58 & 0.20 & 0.49 \\
|
20 |
+
\hline
|
21 |
+
sabia3-extractor-full\_context & 0.22 & 0.39 & 0.18 & 0.38 & 0.09 & 0.33 & 0.28 & 0.47 & 0.39 & 0.62 \\
|
22 |
+
\hline
|
23 |
+
sabia3-graderPrompt-essay\_only & 0.45 & 0.61 & 0.00 & 0.13 & 0.21 & 0.48 & 0.44 & 0.65 & 0.47 & 0.70 \\
|
24 |
+
sabia3-graderPrompt-full\_context & 0.40 & 0.58 & 0.35 & 0.62 & 0.42 & 0.65 & 0.39 & 0.64 & 0.34 & 0.63 \\
|
25 |
+
\hline
|
26 |
+
sabia3-studentPrompt-essay\_only & 0.61 & 0.75 & -0.03 & 0.06 & 0.16 & 0.43 & 0.39 & 0.62 & 0.37 & 0.63 \\
|
27 |
+
sabia3-studentPrompt-full\_context & 0.47 & 0.66 & 0.31 & 0.60 & 0.32 & 0.56 & 0.23 & 0.52 & 0.40 & 0.65 \\
|
28 |
+
\hline\hline
|
29 |
+
llama3.1-8b-lora-essay-only-r16 & 0.59 & 0.77 & 0.19 & 0.50 & 0.28 & 0.56 & 0.32 & 0.56 & 0.22 & 0.49 \\
|
30 |
+
\hline
|
31 |
+
llama3.1-8b-lora-essay-only-r8 & 0.54 & 0.74 & 0.16 & 0.46 & 0.21 & 0.51 & 0.26 & 0.51 & 0.12 & 0.46 \\
|
32 |
+
\hline
|
33 |
+
llama3.1-8b-lora-full-context-r16 & 0.55 & 0.75 & 0.19 & 0.47 & 0.18 & 0.46 & 0.31 & 0.55 & 0.02 & 0.35 \\
|
34 |
+
\hline
|
35 |
+
llama3.1-8b-lora-full-context-r8 & 0.49 & 0.69 & 0.08 & 0.40 & 0.17 & 0.46 & 0.41 & 0.64 & 0.01 & 0.33 \\
|
36 |
+
\hline
|
37 |
+
phi3.5-mini-lora-essay-only-r16 & 0.32 & 0.58 & 0.12 & 0.42 & 0.09 & 0.35 & 0.13 & 0.41 & 0.11 & 0.39 \\
|
38 |
+
\hline
|
39 |
+
phi3.5-mini-lora-essay-only-r8 & 0.32 & 0.58 & 0.12 & 0.42 & 0.09 & 0.35 & 0.13 & 0.41 & 0.11 & 0.39 \\
|
40 |
+
\hline
|
41 |
+
phi3.5-mini-lora-full-context-r16 & 0.16 & 0.38 & -0.18 & 0.14 & 0.30 & 0.57 & -0.00 & 0.17 & 0.03 & 0.34 \\
|
42 |
+
\hline
|
43 |
+
phi3.5-mini-lora-full-context-r8 & 0.16 & 0.38 & -0.18 & 0.14 & 0.30 & 0.57 & -0.00 & 0.17 & 0.03 & 0.34 \\
|
44 |
+
\hline
|
45 |
+
phi4-lora-essay-only-r16 & 0.60 & 0.78 & 0.06 & 0.36 & 0.27 & 0.55 & 0.47 & 0.68 & 0.54 & 0.75 \\
|
46 |
+
\hline
|
47 |
+
phi4-lora-essay-only-r8 & 0.57 & 0.75 & 0.18 & 0.47 & 0.17 & 0.48 & 0.35 & 0.60 & 0.46 & 0.70 \\
|
48 |
+
\hline
|
49 |
+
phi4-lora-full-context-r16 & 0.51 & 0.70 & 0.47 & 0.71 & 0.53 & 0.76 & 0.49 & 0.68 & 0.40 & 0.64 \\
|
50 |
+
\hline
|
51 |
+
phi4-lora-full-context-r8 & 0.57 & 0.75 & 0.46 & 0.70 & 0.45 & 0.68 & 0.43 & 0.65 & 0.38 & 0.64 \\
|
52 |
+
\hline\hline
|
53 |
+
bertimbau-base-essay-only & 0.51 & 0.68 & 0.19 & 0.49 & 0.20 & 0.49 & 0.42 & 0.66 & 0.51 & 0.73 \\
|
54 |
+
\hline
|
55 |
+
bertimbau-large-essay-only & 0.59 & 0.77 & 0.14 & 0.47 & 0.09 & 0.39 & 0.47 & 0.71 & 0.33 & 0.58 \\
|
56 |
+
\hline
|
57 |
+
bertugues-base-essay-only & 0.52 & 0.70 & 0.19 & 0.46 & 0.12 & 0.44 & 0.42 & 0.64 & 0.22 & 0.49 \\
|
58 |
+
\hline
|
59 |
+
mbert-base-essay-only & 0.39 & 0.62 & 0.07 & 0.37 & 0.21 & 0.50 & 0.33 & 0.64 & -0.04 & 0.04 \\
|
60 |
+
\hline\hline
|
61 |
+
\end{tabular}%
|
bootstrap_confidence_intervals_Weighted_F1_table.txt
ADDED
@@ -0,0 +1,61 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
\begin{tabular}{c|c c| c c| c c| c c| c c}
|
2 |
+
\hline\hline
|
3 |
+
& \multicolumn{2}{c|}{\textbf{C1}} & \multicolumn{2}{c|}{\textbf{C2}} & \multicolumn{2}{c|}{\textbf{C3}} & \multicolumn{2}{c|}{\textbf{C4}} & \multicolumn{2}{c|}{\textbf{C5}} \\ \hline
|
4 |
+
& F1-Weighted$_{\text{-lower-bound}}$ & F1-Weighted$_{\text{-upper-bound}}$ & F1-Weighted$_{\text{-lower-bound}}$ & F1-Weighted$_{\text{-upper-bound}}$ & F1-Weighted$_{\text{-lower-bound}}$ & F1-Weighted$_{\text{-upper-bound}}$ & F1-Weighted$_{\text{-lower-bound}}$ & F1-Weighted$_{\text{-upper-bound}}$ & F1-Weighted$_{\text{-lower-bound}}$ & F1-Weighted$_{\text{-upper-bound}}$ \\ \hline
|
5 |
+
deepseekR1-extractor-full\_context & 0.03 & 0.14 & 0.23 & 0.41 & 0.31 & 0.49 & 0.51 & 0.67 & 0.33 & 0.51 \\
|
6 |
+
\hline
|
7 |
+
deepseekR1-graderPrompt-essay\_only & 0.17 & 0.33 & 0.01 & 0.10 & 0.12 & 0.26 & 0.16 & 0.33 & 0.25 & 0.42 \\
|
8 |
+
deepseekR1-graderPrompt-full\_context & 0.01 & 0.11 & 0.31 & 0.50 & 0.22 & 0.37 & 0.37 & 0.54 & 0.28 & 0.46 \\
|
9 |
+
\hline
|
10 |
+
deepseekR1-studentPrompt-essay\_only & 0.10 & 0.24 & 0.17 & 0.33 & 0.25 & 0.41 & 0.31 & 0.48 & 0.34 & 0.51 \\
|
11 |
+
deepseekR1-studentPrompt-full\_context & 0.02 & 0.11 & 0.26 & 0.44 & 0.38 & 0.55 & 0.28 & 0.45 & 0.32 & 0.49 \\
|
12 |
+
\hline
|
13 |
+
gpt4o-extractor-full\_context & 0.44 & 0.63 & 0.32 & 0.49 & 0.20 & 0.36 & 0.36 & 0.53 & 0.09 & 0.22 \\
|
14 |
+
\hline
|
15 |
+
gpt4o-graderPrompt-essay\_only & 0.36 & 0.53 & 0.13 & 0.27 & 0.19 & 0.34 & 0.30 & 0.47 & 0.26 & 0.42 \\
|
16 |
+
gpt4o-graderPrompt-full\_context & 0.43 & 0.60 & 0.33 & 0.50 & 0.23 & 0.41 & 0.39 & 0.56 & 0.18 & 0.33 \\
|
17 |
+
\hline
|
18 |
+
gpt4o-studentPrompt-essay\_only & 0.34 & 0.51 & 0.18 & 0.34 & 0.21 & 0.37 & 0.31 & 0.48 & 0.22 & 0.38 \\
|
19 |
+
gpt4o-studentPrompt-full\_context & 0.34 & 0.51 & 0.33 & 0.50 & 0.22 & 0.37 & 0.28 & 0.45 & 0.12 & 0.26 \\
|
20 |
+
\hline
|
21 |
+
sabia3-extractor-full\_context & 0.18 & 0.34 & 0.14 & 0.29 & 0.19 & 0.36 & 0.29 & 0.47 & 0.15 & 0.31 \\
|
22 |
+
\hline
|
23 |
+
sabia3-graderPrompt-essay\_only & 0.33 & 0.50 & 0.06 & 0.18 & 0.25 & 0.41 & 0.35 & 0.53 & 0.29 & 0.46 \\
|
24 |
+
sabia3-graderPrompt-full\_context & 0.41 & 0.59 & 0.33 & 0.50 & 0.29 & 0.45 & 0.41 & 0.58 & 0.24 & 0.40 \\
|
25 |
+
\hline
|
26 |
+
sabia3-studentPrompt-essay\_only & 0.58 & 0.74 & 0.06 & 0.17 & 0.22 & 0.38 & 0.43 & 0.62 & 0.26 & 0.43 \\
|
27 |
+
sabia3-studentPrompt-full\_context & 0.51 & 0.69 & 0.32 & 0.49 & 0.15 & 0.30 & 0.34 & 0.53 & 0.20 & 0.36 \\
|
28 |
+
\hline\hline
|
29 |
+
llama3.1-8b-lora-essay-only-r16 & 0.58 & 0.74 & 0.27 & 0.43 & 0.20 & 0.36 & 0.37 & 0.54 & 0.15 & 0.28 \\
|
30 |
+
\hline
|
31 |
+
llama3.1-8b-lora-essay-only-r8 & 0.58 & 0.75 & 0.10 & 0.23 & 0.28 & 0.44 & 0.45 & 0.62 & 0.20 & 0.35 \\
|
32 |
+
\hline
|
33 |
+
llama3.1-8b-lora-full-context-r16 & 0.60 & 0.76 & 0.15 & 0.30 & 0.18 & 0.34 & 0.42 & 0.59 & 0.17 & 0.32 \\
|
34 |
+
\hline
|
35 |
+
llama3.1-8b-lora-full-context-r8 & 0.49 & 0.65 & 0.18 & 0.34 & 0.20 & 0.36 & 0.47 & 0.63 & 0.12 & 0.26 \\
|
36 |
+
\hline
|
37 |
+
phi3.5-mini-lora-essay-only-r16 & 0.31 & 0.49 & 0.16 & 0.31 & 0.20 & 0.36 & 0.41 & 0.59 & 0.17 & 0.31 \\
|
38 |
+
\hline
|
39 |
+
phi3.5-mini-lora-essay-only-r8 & 0.31 & 0.49 & 0.16 & 0.31 & 0.20 & 0.36 & 0.41 & 0.59 & 0.17 & 0.31 \\
|
40 |
+
\hline
|
41 |
+
phi3.5-mini-lora-full-context-r16 & 0.21 & 0.37 & 0.15 & 0.28 & 0.26 & 0.43 & 0.13 & 0.28 & 0.12 & 0.25 \\
|
42 |
+
\hline
|
43 |
+
phi3.5-mini-lora-full-context-r8 & 0.21 & 0.37 & 0.15 & 0.28 & 0.26 & 0.43 & 0.13 & 0.28 & 0.12 & 0.25 \\
|
44 |
+
\hline
|
45 |
+
phi4-lora-essay-only-r16 & 0.58 & 0.73 & 0.16 & 0.31 & 0.26 & 0.42 & 0.55 & 0.72 & 0.34 & 0.51 \\
|
46 |
+
\hline
|
47 |
+
phi4-lora-essay-only-r8 & 0.53 & 0.69 & 0.28 & 0.45 & 0.23 & 0.39 & 0.49 & 0.67 & 0.40 & 0.57 \\
|
48 |
+
\hline
|
49 |
+
phi4-lora-full-context-r16 & 0.49 & 0.66 & 0.41 & 0.59 & 0.39 & 0.56 & 0.42 & 0.59 & 0.24 & 0.40 \\
|
50 |
+
\hline
|
51 |
+
phi4-lora-full-context-r8 & 0.54 & 0.70 & 0.39 & 0.56 & 0.29 & 0.46 & 0.49 & 0.66 & 0.23 & 0.39 \\
|
52 |
+
\hline\hline
|
53 |
+
bertimbau-base-essay-only & 0.43 & 0.60 & 0.27 & 0.43 & 0.19 & 0.35 & 0.47 & 0.64 & 0.27 & 0.45 \\
|
54 |
+
\hline
|
55 |
+
bertimbau-large-essay-only & 0.61 & 0.77 & 0.33 & 0.49 & 0.18 & 0.33 & 0.52 & 0.68 & 0.27 & 0.45 \\
|
56 |
+
\hline
|
57 |
+
bertugues-base-essay-only & 0.48 & 0.64 & 0.12 & 0.25 & 0.27 & 0.43 & 0.42 & 0.59 & 0.19 & 0.35 \\
|
58 |
+
\hline
|
59 |
+
mbert-base-essay-only & 0.50 & 0.68 & 0.18 & 0.34 & 0.24 & 0.40 & 0.47 & 0.63 & 0.05 & 0.14 \\
|
60 |
+
\hline\hline
|
61 |
+
\end{tabular}%
|
create_latex_evaluation_results.py → create_latex_tables.py
RENAMED
@@ -17,8 +17,8 @@ class TableConfig:
|
|
17 |
latex_labels: Dict[str, str] # friendly_name -> latex_label
|
18 |
|
19 |
@classmethod
|
20 |
-
def
|
21 |
-
"""Create
|
22 |
return cls(
|
23 |
concepts=[f"C{i}" for i in range(1, 6)], # C1 through C5
|
24 |
metric_map={
|
@@ -32,6 +32,56 @@ class TableConfig:
|
|
32 |
"QWK": r"QWK",
|
33 |
}
|
34 |
)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
35 |
|
36 |
|
37 |
class ExperimentIdParser:
|
@@ -139,15 +189,18 @@ class DataProcessor:
|
|
139 |
"""
|
140 |
df = pd.read_parquet(file_path)
|
141 |
|
142 |
-
#
|
143 |
-
if
|
144 |
-
|
145 |
-
|
146 |
-
|
147 |
-
|
148 |
-
|
149 |
-
|
150 |
-
|
|
|
|
|
|
|
151 |
|
152 |
# Parse experiment IDs
|
153 |
base_ids, concepts = zip(*df["experiment_id"].map(self.parser.split_experiment_id))
|
@@ -222,14 +275,15 @@ class LaTeXTableGenerator:
|
|
222 |
lines = []
|
223 |
|
224 |
# Table opening with column specifications
|
225 |
-
|
|
|
226 |
lines.append(rf"\begin{{tabular}}{{{column_spec}}}")
|
227 |
lines.append(r"\hline\hline")
|
228 |
|
229 |
# First header row - concept names
|
230 |
concept_headers = [""]
|
231 |
for concept in self.config.concepts:
|
232 |
-
concept_headers.append(rf"\multicolumn{{
|
233 |
concept_headers[-1] = concept_headers[-1].rstrip("|")
|
234 |
lines.append(" & ".join(concept_headers) + r" \\ \hline")
|
235 |
|
@@ -288,8 +342,8 @@ class LaTeXTableGenerator:
|
|
288 |
|
289 |
def main():
|
290 |
"""Main entry point for the script."""
|
291 |
-
# Configuration
|
292 |
-
config = TableConfig.
|
293 |
input_file = Path("evaluation_results-00000-of-00001.parquet")
|
294 |
output_file_full = Path("evaluation_table_full.txt")
|
295 |
output_file_avg = Path("evaluation_table_avg_only.txt")
|
@@ -314,6 +368,51 @@ def main():
|
|
314 |
|
315 |
print(f"✅ Wrote {output_file_full} – full table with all metric groups")
|
316 |
print(f"✅ Wrote {output_file_avg} – filtered table with only avg(A,B) metric group")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
317 |
|
318 |
|
319 |
if __name__ == "__main__":
|
|
|
17 |
latex_labels: Dict[str, str] # friendly_name -> latex_label
|
18 |
|
19 |
@classmethod
|
20 |
+
def evaluation_results(cls) -> TableConfig:
|
21 |
+
"""Create evaluation results configuration."""
|
22 |
return cls(
|
23 |
concepts=[f"C{i}" for i in range(1, 6)], # C1 through C5
|
24 |
metric_map={
|
|
|
32 |
"QWK": r"QWK",
|
33 |
}
|
34 |
)
|
35 |
+
|
36 |
+
@classmethod
|
37 |
+
def bootstrap(cls) -> TableConfig:
|
38 |
+
"""Create configuration for bootstrap confidence intervals."""
|
39 |
+
return cls(
|
40 |
+
concepts=[f"C{i}" for i in range(1, 6)], # C1 through C5
|
41 |
+
metric_map={
|
42 |
+
"QWK_lower": "QWK_lower_95ci",
|
43 |
+
"QWK_upper": "QWK_upper_95ci",
|
44 |
+
},
|
45 |
+
latex_labels={
|
46 |
+
"QWK_lower": r"QWK$_{\text{lower-bound}}$",
|
47 |
+
"QWK_upper": r"QWK$_{\text{upper-bound}}$",
|
48 |
+
}
|
49 |
+
)
|
50 |
+
|
51 |
+
@classmethod
|
52 |
+
def bootstrap_qwk(cls) -> TableConfig:
|
53 |
+
"""Create configuration for QWK bootstrap confidence intervals."""
|
54 |
+
return cls.bootstrap() # Alias for backward compatibility
|
55 |
+
|
56 |
+
@classmethod
|
57 |
+
def bootstrap_macro_f1(cls) -> TableConfig:
|
58 |
+
"""Create configuration for Macro F1 bootstrap confidence intervals."""
|
59 |
+
return cls(
|
60 |
+
concepts=[f"C{i}" for i in range(1, 6)], # C1 through C5
|
61 |
+
metric_map={
|
62 |
+
"F1_ma_lower": "Macro_F1_lower_95ci",
|
63 |
+
"F1_ma_upper": "Macro_F1_upper_95ci",
|
64 |
+
},
|
65 |
+
latex_labels={
|
66 |
+
"F1_ma_lower": r"F1-Macro$_{\text{-lower-bound}}$",
|
67 |
+
"F1_ma_upper": r"F1-Macro$_{\text{-upper-bound}}$",
|
68 |
+
}
|
69 |
+
)
|
70 |
+
|
71 |
+
@classmethod
|
72 |
+
def bootstrap_weighted_f1(cls) -> TableConfig:
|
73 |
+
"""Create configuration for Weighted F1 bootstrap confidence intervals."""
|
74 |
+
return cls(
|
75 |
+
concepts=[f"C{i}" for i in range(1, 6)], # C1 through C5
|
76 |
+
metric_map={
|
77 |
+
"F1_w_lower": "Weighted_F1_lower_95ci",
|
78 |
+
"F1_w_upper": "Weighted_F1_upper_95ci",
|
79 |
+
},
|
80 |
+
latex_labels={
|
81 |
+
"F1_w_lower": r"F1-Weighted$_{\text{-lower-bound}}$",
|
82 |
+
"F1_w_upper": r"F1-Weighted$_{\text{-upper-bound}}$",
|
83 |
+
}
|
84 |
+
)
|
85 |
|
86 |
|
87 |
class ExperimentIdParser:
|
|
|
189 |
"""
|
190 |
df = pd.read_parquet(file_path)
|
191 |
|
192 |
+
# Check if metric_group column exists
|
193 |
+
if "metric_group" in df.columns:
|
194 |
+
# Filter by metric_group if specified
|
195 |
+
if metric_group_filter:
|
196 |
+
df = df[df["metric_group"] == metric_group_filter].copy()
|
197 |
+
|
198 |
+
# Combine experiment_id with metric_group
|
199 |
+
df["experiment_id"] = df.apply(
|
200 |
+
lambda x: f"{x['experiment_id']}-{x['metric_group']}",
|
201 |
+
axis=1
|
202 |
+
)
|
203 |
+
# If no metric_group column, experiment_id remains unchanged (bootstrap case)
|
204 |
|
205 |
# Parse experiment IDs
|
206 |
base_ids, concepts = zip(*df["experiment_id"].map(self.parser.split_experiment_id))
|
|
|
275 |
lines = []
|
276 |
|
277 |
# Table opening with column specifications
|
278 |
+
num_metrics = len(self.config.metric_map)
|
279 |
+
column_spec = "c|" + " ".join([" ".join(["c"] * num_metrics) + "|" for _ in self.config.concepts[:-1]]) + " " + " ".join(["c"] * num_metrics)
|
280 |
lines.append(rf"\begin{{tabular}}{{{column_spec}}}")
|
281 |
lines.append(r"\hline\hline")
|
282 |
|
283 |
# First header row - concept names
|
284 |
concept_headers = [""]
|
285 |
for concept in self.config.concepts:
|
286 |
+
concept_headers.append(rf"\multicolumn{{{num_metrics}}}{{c|}}{{\textbf{{{concept}}}}}")
|
287 |
concept_headers[-1] = concept_headers[-1].rstrip("|")
|
288 |
lines.append(" & ".join(concept_headers) + r" \\ \hline")
|
289 |
|
|
|
342 |
|
343 |
def main():
|
344 |
"""Main entry point for the script."""
|
345 |
+
# Configuration for evaluation results
|
346 |
+
config = TableConfig.evaluation_results()
|
347 |
input_file = Path("evaluation_results-00000-of-00001.parquet")
|
348 |
output_file_full = Path("evaluation_table_full.txt")
|
349 |
output_file_avg = Path("evaluation_table_avg_only.txt")
|
|
|
368 |
|
369 |
print(f"✅ Wrote {output_file_full} – full table with all metric groups")
|
370 |
print(f"✅ Wrote {output_file_avg} – filtered table with only avg(A,B) metric group")
|
371 |
+
|
372 |
+
# Process bootstrap confidence intervals
|
373 |
+
input_file_bootstrap = Path("bootstrap_confidence_intervals-00000-of-00001.parquet")
|
374 |
+
|
375 |
+
# 1. QWK bootstrap confidence intervals
|
376 |
+
config_bootstrap_qwk = TableConfig.bootstrap_qwk()
|
377 |
+
output_file_bootstrap_qwk = Path("bootstrap_confidence_intervals_QWK_table.txt")
|
378 |
+
|
379 |
+
processor_bootstrap_qwk = DataProcessor(config_bootstrap_qwk)
|
380 |
+
df_bootstrap = processor_bootstrap_qwk.load_and_prepare_data(input_file_bootstrap)
|
381 |
+
pivot_data_bootstrap_qwk = processor_bootstrap_qwk.create_pivot_table(df_bootstrap)
|
382 |
+
|
383 |
+
generator_bootstrap_qwk = LaTeXTableGenerator(config_bootstrap_qwk)
|
384 |
+
latex_table_bootstrap_qwk = generator_bootstrap_qwk.generate_table(pivot_data_bootstrap_qwk)
|
385 |
+
|
386 |
+
output_file_bootstrap_qwk.write_text(latex_table_bootstrap_qwk, encoding="utf-8")
|
387 |
+
print(f"✅ Wrote {output_file_bootstrap_qwk} – QWK bootstrap confidence intervals table")
|
388 |
+
|
389 |
+
# 2. Macro F1 bootstrap confidence intervals
|
390 |
+
config_bootstrap_macro_f1 = TableConfig.bootstrap_macro_f1()
|
391 |
+
output_file_bootstrap_macro_f1 = Path("bootstrap_confidence_intervals_Macro_F1_table.txt")
|
392 |
+
|
393 |
+
processor_bootstrap_macro_f1 = DataProcessor(config_bootstrap_macro_f1)
|
394 |
+
# Reuse the already loaded dataframe
|
395 |
+
pivot_data_bootstrap_macro_f1 = processor_bootstrap_macro_f1.create_pivot_table(df_bootstrap)
|
396 |
+
|
397 |
+
generator_bootstrap_macro_f1 = LaTeXTableGenerator(config_bootstrap_macro_f1)
|
398 |
+
latex_table_bootstrap_macro_f1 = generator_bootstrap_macro_f1.generate_table(pivot_data_bootstrap_macro_f1)
|
399 |
+
|
400 |
+
output_file_bootstrap_macro_f1.write_text(latex_table_bootstrap_macro_f1, encoding="utf-8")
|
401 |
+
print(f"✅ Wrote {output_file_bootstrap_macro_f1} – Macro F1 bootstrap confidence intervals table")
|
402 |
+
|
403 |
+
# 3. Weighted F1 bootstrap confidence intervals
|
404 |
+
config_bootstrap_weighted_f1 = TableConfig.bootstrap_weighted_f1()
|
405 |
+
output_file_bootstrap_weighted_f1 = Path("bootstrap_confidence_intervals_Weighted_F1_table.txt")
|
406 |
+
|
407 |
+
processor_bootstrap_weighted_f1 = DataProcessor(config_bootstrap_weighted_f1)
|
408 |
+
# Reuse the already loaded dataframe
|
409 |
+
pivot_data_bootstrap_weighted_f1 = processor_bootstrap_weighted_f1.create_pivot_table(df_bootstrap)
|
410 |
+
|
411 |
+
generator_bootstrap_weighted_f1 = LaTeXTableGenerator(config_bootstrap_weighted_f1)
|
412 |
+
latex_table_bootstrap_weighted_f1 = generator_bootstrap_weighted_f1.generate_table(pivot_data_bootstrap_weighted_f1)
|
413 |
+
|
414 |
+
output_file_bootstrap_weighted_f1.write_text(latex_table_bootstrap_weighted_f1, encoding="utf-8")
|
415 |
+
print(f"✅ Wrote {output_file_bootstrap_weighted_f1} – Weighted F1 bootstrap confidence intervals table")
|
416 |
|
417 |
|
418 |
if __name__ == "__main__":
|
evaluation_table_avg_only.txt
ADDED
@@ -0,0 +1,60 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
\begin{tabular}{c|c c c| c c c| c c c| c c c| c c c}
|
2 |
+
\hline\hline
|
3 |
+
& \multicolumn{3}{c|}{\textbf{C1}} & \multicolumn{3}{c|}{\textbf{C2}} & \multicolumn{3}{c|}{\textbf{C3}} & \multicolumn{3}{c|}{\textbf{C4}} & \multicolumn{3}{c|}{\textbf{C5}} \\ \hline
|
4 |
+
& F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK \\ \hline
|
5 |
+
deepseekR1-extractor-full\_context-avg(A,B) & 0.04 & 0.08 & 0.20 & 0.27 & 0.34 & 0.51 & 0.30 & 0.41 & 0.52 & 0.37 & 0.60 & 0.56 & 0.37 & 0.42 & 0.61 \\
|
6 |
+
\hline
|
7 |
+
deepseekR1-graderPrompt-essay\_only-avg(A,B) & 0.17 & 0.25 & 0.44 & 0.05 & 0.05 & 0.03 & 0.19 & 0.19 & 0.39 & 0.21 & 0.25 & 0.48 & 0.31 & 0.34 & 0.55 \\
|
8 |
+
deepseekR1-graderPrompt-full\_context-avg(A,B) & 0.05 & 0.06 & 0.20 & 0.32 & 0.43 & 0.53 & 0.30 & 0.30 & 0.60 & 0.29 & 0.46 & 0.55 & 0.35 & 0.38 & 0.60 \\
|
9 |
+
\hline
|
10 |
+
deepseekR1-studentPrompt-essay\_only-avg(A,B) & 0.11 & 0.17 & 0.36 & 0.13 & 0.26 & -0.02 & 0.32 & 0.34 & 0.38 & 0.27 & 0.39 & 0.52 & 0.37 & 0.43 & 0.55 \\
|
11 |
+
deepseekR1-studentPrompt-full\_context-avg(A,B) & 0.04 & 0.06 & 0.35 & 0.26 & 0.37 & 0.42 & 0.44 & 0.47 & 0.73 & 0.22 & 0.37 & 0.49 & 0.37 & 0.40 & 0.58 \\
|
12 |
+
\hline
|
13 |
+
gpt4o-extractor-full\_context-avg(A,B) & 0.25 & 0.54 & 0.53 & 0.32 & 0.43 & 0.47 & 0.27 & 0.30 & 0.57 & 0.27 & 0.45 & 0.50 & 0.14 & 0.15 & 0.32 \\
|
14 |
+
\hline
|
15 |
+
gpt4o-graderPrompt-essay\_only-avg(A,B) & 0.21 & 0.45 & 0.49 & 0.16 & 0.22 & 0.28 & 0.20 & 0.27 & 0.28 & 0.29 & 0.39 & 0.51 & 0.32 & 0.35 & 0.54 \\
|
16 |
+
\hline
|
17 |
+
gpt4o-studentPrompt-essay\_only-avg(A,B) & 0.22 & 0.43 & 0.51 & 0.16 & 0.27 & 0.20 & 0.26 & 0.30 & 0.38 & 0.30 & 0.40 & 0.51 & 0.28 & 0.31 & 0.55 \\
|
18 |
+
gpt4o-studentPrompt-full\_context-avg(A,B) & 0.21 & 0.42 & 0.48 & 0.34 & 0.43 & 0.52 & 0.27 & 0.30 & 0.53 & 0.26 & 0.37 & 0.49 & 0.17 & 0.19 & 0.35 \\
|
19 |
+
\hline
|
20 |
+
sabia3-extractor-full\_context-avg(A,B) & 0.10 & 0.26 & 0.31 & 0.16 & 0.24 & 0.28 & 0.20 & 0.29 & 0.21 & 0.18 & 0.38 & 0.38 & 0.22 & 0.24 & 0.51 \\
|
21 |
+
\hline
|
22 |
+
sabia3-graderPrompt-essay\_only-avg(A,B) & 0.23 & 0.42 & 0.53 & 0.11 & 0.12 & 0.06 & 0.28 & 0.33 & 0.34 & 0.24 & 0.43 & 0.55 & 0.33 & 0.38 & 0.59 \\
|
23 |
+
sabia3-graderPrompt-full\_context-avg(A,B) & 0.24 & 0.50 & 0.50 & 0.33 & 0.43 & 0.50 & 0.33 & 0.37 & 0.54 & 0.31 & 0.49 & 0.53 & 0.28 & 0.32 & 0.50 \\
|
24 |
+
\hline
|
25 |
+
sabia3-studentPrompt-essay\_only-avg(A,B) & 0.35 & 0.66 & 0.69 & 0.11 & 0.11 & 0.01 & 0.23 & 0.32 & 0.30 & 0.31 & 0.53 & 0.52 & 0.29 & 0.35 & 0.51 \\
|
26 |
+
sabia3-studentPrompt-full\_context-avg(A,B) & 0.35 & 0.60 & 0.58 & 0.28 & 0.42 & 0.47 & 0.21 & 0.24 & 0.45 & 0.28 & 0.43 & 0.39 & 0.27 & 0.28 & 0.54 \\
|
27 |
+
\hline\hline
|
28 |
+
llama3.1-8b-lora-essay-only-r16-avg(A,B) & 0.53 & 0.67 & 0.69 & 0.26 & 0.36 & 0.36 & 0.26 & 0.30 & 0.43 & 0.31 & 0.45 & 0.45 & 0.21 & 0.22 & 0.36 \\
|
29 |
+
\hline
|
30 |
+
llama3.1-8b-lora-essay-only-r8-avg(A,B) & 0.49 & 0.67 & 0.65 & 0.16 & 0.19 & 0.32 & 0.25 & 0.37 & 0.37 & 0.24 & 0.53 & 0.39 & 0.26 & 0.28 & 0.29 \\
|
31 |
+
\hline
|
32 |
+
llama3.1-8b-lora-full-context-r16-avg(A,B) & 0.51 & 0.68 & 0.66 & 0.20 & 0.25 & 0.33 & 0.24 & 0.26 & 0.32 & 0.26 & 0.51 & 0.44 & 0.25 & 0.24 & 0.19 \\
|
33 |
+
\hline
|
34 |
+
llama3.1-8b-lora-full-context-r8-avg(A,B) & 0.41 & 0.57 & 0.60 & 0.21 & 0.29 & 0.25 & 0.25 & 0.28 & 0.32 & 0.39 & 0.55 & 0.54 & 0.21 & 0.20 & 0.18 \\
|
35 |
+
\hline
|
36 |
+
phi3.5-mini-lora-essay-only-r16-avg(A,B) & 0.33 & 0.40 & 0.45 & 0.21 & 0.26 & 0.28 & 0.24 & 0.28 & 0.22 & 0.29 & 0.50 & 0.27 & 0.19 & 0.24 & 0.25 \\
|
37 |
+
\hline
|
38 |
+
phi3.5-mini-lora-essay-only-r8-avg(A,B) & 0.33 & 0.40 & 0.45 & 0.21 & 0.26 & 0.28 & 0.24 & 0.28 & 0.22 & 0.29 & 0.50 & 0.27 & 0.19 & 0.24 & 0.25 \\
|
39 |
+
\hline
|
40 |
+
phi3.5-mini-lora-full-context-r16-avg(A,B) & 0.19 & 0.29 & 0.28 & 0.14 & 0.22 & -0.03 & 0.28 & 0.35 & 0.44 & 0.11 & 0.20 & 0.08 & 0.18 & 0.19 & 0.19 \\
|
41 |
+
\hline
|
42 |
+
phi3.5-mini-lora-full-context-r8-avg(A,B) & 0.19 & 0.29 & 0.28 & 0.14 & 0.22 & -0.03 & 0.28 & 0.35 & 0.44 & 0.11 & 0.20 & 0.08 & 0.18 & 0.19 & 0.19 \\
|
43 |
+
\hline
|
44 |
+
phi4-lora-essay-only-r16-avg(A,B) & 0.53 & 0.66 & 0.70 & 0.19 & 0.25 & 0.21 & 0.25 & 0.34 & 0.41 & 0.38 & 0.63 & 0.58 & 0.36 & 0.42 & 0.65 \\
|
45 |
+
\hline
|
46 |
+
phi4-lora-essay-only-r8-avg(A,B) & 0.50 & 0.61 & 0.67 & 0.28 & 0.39 & 0.34 & 0.24 & 0.31 & 0.33 & 0.30 & 0.58 & 0.48 & 0.44 & 0.49 & 0.59 \\
|
47 |
+
\hline
|
48 |
+
phi4-lora-full-context-r16-avg(A,B) & 0.41 & 0.58 & 0.61 & 0.42 & 0.52 & 0.60 & 0.42 & 0.48 & 0.66 & 0.35 & 0.50 & 0.60 & 0.29 & 0.33 & 0.53 \\
|
49 |
+
\hline
|
50 |
+
phi4-lora-full-context-r8-avg(A,B) & 0.48 & 0.63 & 0.67 & 0.40 & 0.50 & 0.59 & 0.37 & 0.38 & 0.57 & 0.37 & 0.58 & 0.55 & 0.29 & 0.32 & 0.52 \\
|
51 |
+
\hline\hline
|
52 |
+
bertimbau-base-essay-only-avg(A,B) & 0.42 & 0.52 & 0.60 & 0.26 & 0.37 & 0.36 & 0.23 & 0.28 & 0.35 & 0.38 & 0.55 & 0.55 & 0.29 & 0.37 & 0.63 \\
|
53 |
+
\hline
|
54 |
+
bertimbau-large-essay-only-avg(A,B) & 0.52 & 0.69 & 0.68 & 0.33 & 0.43 & 0.32 & 0.19 & 0.26 & 0.24 & 0.48 & 0.61 & 0.60 & 0.29 & 0.37 & 0.46 \\
|
55 |
+
\hline
|
56 |
+
bertugues-base-essay-only-avg(A,B) & 0.44 & 0.56 & 0.62 & 0.14 & 0.19 & 0.33 & 0.25 & 0.36 & 0.29 & 0.35 & 0.51 & 0.54 & 0.23 & 0.28 & 0.36 \\
|
57 |
+
\hline
|
58 |
+
mbert-base-essay-only-avg(A,B) & 0.40 & 0.59 & 0.52 & 0.18 & 0.27 & 0.22 & 0.25 & 0.32 & 0.35 & 0.35 & 0.55 & 0.50 & 0.08 & 0.09 & 0.00 \\
|
59 |
+
\hline\hline
|
60 |
+
\end{tabular}%
|
evaluation_table_full.txt
ADDED
@@ -0,0 +1,150 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
\begin{tabular}{c|c c c| c c c| c c c| c c c| c c c}
|
2 |
+
\hline\hline
|
3 |
+
& \multicolumn{3}{c|}{\textbf{C1}} & \multicolumn{3}{c|}{\textbf{C2}} & \multicolumn{3}{c|}{\textbf{C3}} & \multicolumn{3}{c|}{\textbf{C4}} & \multicolumn{3}{c|}{\textbf{C5}} \\ \hline
|
4 |
+
& F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK & F1$_{ma}$ & F1$_{w}$ & QWK \\ \hline
|
5 |
+
deepseekR1-extractor-full\_context-avg(A,B) & 0.04 & 0.08 & 0.20 & 0.27 & 0.34 & 0.51 & 0.30 & 0.41 & 0.52 & 0.37 & 0.60 & 0.56 & 0.37 & 0.42 & 0.61 \\
|
6 |
+
deepseekR1-extractor-full\_context-concat(A,B) & 0.03 & 0.08 & 0.21 & 0.29 & 0.31 & 0.51 & 0.32 & 0.40 & 0.52 & 0.31 & 0.59 & 0.56 & 0.38 & 0.42 & 0.61 \\
|
7 |
+
deepseekR1-extractor-full\_context-onlyA & 0.02 & 0.05 & 0.24 & 0.31 & 0.39 & 0.45 & 0.27 & 0.41 & 0.51 & 0.36 & 0.57 & 0.49 & 0.38 & 0.42 & 0.58 \\
|
8 |
+
deepseekR1-extractor-full\_context-onlyB & 0.06 & 0.12 & 0.17 & 0.23 & 0.30 & 0.57 & 0.33 & 0.40 & 0.54 & 0.38 & 0.62 & 0.62 & 0.36 & 0.43 & 0.64 \\
|
9 |
+
\hline
|
10 |
+
deepseekR1-graderPrompt-essay\_only-avg(A,B) & 0.17 & 0.25 & 0.44 & 0.05 & 0.05 & 0.03 & 0.19 & 0.19 & 0.39 & 0.21 & 0.25 & 0.48 & 0.31 & 0.34 & 0.55 \\
|
11 |
+
deepseekR1-graderPrompt-essay\_only-concat(A,B) & 0.16 & 0.25 & 0.44 & 0.04 & 0.05 & 0.03 & 0.18 & 0.18 & 0.40 & 0.18 & 0.24 & 0.47 & 0.32 & 0.33 & 0.55 \\
|
12 |
+
deepseekR1-graderPrompt-essay\_only-onlyA & 0.17 & 0.25 & 0.45 & 0.08 & 0.08 & 0.02 & 0.12 & 0.17 & 0.34 & 0.15 & 0.24 & 0.40 & 0.30 & 0.31 & 0.52 \\
|
13 |
+
deepseekR1-graderPrompt-essay\_only-onlyB & 0.17 & 0.25 & 0.43 & 0.02 & 0.03 & 0.04 & 0.26 & 0.22 & 0.44 & 0.26 & 0.25 & 0.55 & 0.33 & 0.37 & 0.58 \\
|
14 |
+
deepseekR1-graderPrompt-full\_context-avg(A,B) & 0.05 & 0.06 & 0.20 & 0.32 & 0.43 & 0.53 & 0.30 & 0.30 & 0.60 & 0.29 & 0.46 & 0.55 & 0.35 & 0.38 & 0.60 \\
|
15 |
+
deepseekR1-graderPrompt-full\_context-concat(A,B) & 0.06 & 0.06 & 0.20 & 0.36 & 0.40 & 0.51 & 0.31 & 0.29 & 0.60 & 0.25 & 0.46 & 0.55 & 0.36 & 0.37 & 0.60 \\
|
16 |
+
deepseekR1-graderPrompt-full\_context-onlyA & 0.09 & 0.09 & 0.20 & 0.32 & 0.43 & 0.41 & 0.26 & 0.25 & 0.59 & 0.29 & 0.42 & 0.52 & 0.32 & 0.35 & 0.54 \\
|
17 |
+
deepseekR1-graderPrompt-full\_context-onlyB & 0.02 & 0.03 & 0.20 & 0.33 & 0.43 & 0.65 & 0.33 & 0.36 & 0.61 & 0.30 & 0.49 & 0.58 & 0.38 & 0.41 & 0.65 \\
|
18 |
+
\hline
|
19 |
+
deepseekR1-studentPrompt-essay\_only-avg(A,B) & 0.11 & 0.17 & 0.36 & 0.13 & 0.26 & -0.02 & 0.32 & 0.34 & 0.38 & 0.27 & 0.39 & 0.52 & 0.37 & 0.43 & 0.55 \\
|
20 |
+
deepseekR1-studentPrompt-essay\_only-concat(A,B) & 0.10 & 0.17 & 0.36 & 0.15 & 0.25 & -0.01 & 0.29 & 0.33 & 0.38 & 0.26 & 0.39 & 0.52 & 0.37 & 0.43 & 0.55 \\
|
21 |
+
deepseekR1-studentPrompt-essay\_only-onlyA & 0.10 & 0.15 & 0.35 & 0.11 & 0.26 & -0.01 & 0.25 & 0.31 & 0.33 & 0.21 & 0.40 & 0.49 & 0.33 & 0.36 & 0.50 \\
|
22 |
+
deepseekR1-studentPrompt-essay\_only-onlyB & 0.11 & 0.18 & 0.37 & 0.15 & 0.26 & -0.03 & 0.39 & 0.37 & 0.43 & 0.33 & 0.38 & 0.54 & 0.41 & 0.50 & 0.59 \\
|
23 |
+
deepseekR1-studentPrompt-full\_context-avg(A,B) & 0.04 & 0.06 & 0.35 & 0.26 & 0.37 & 0.42 & 0.44 & 0.47 & 0.73 & 0.22 & 0.37 & 0.49 & 0.37 & 0.40 & 0.58 \\
|
24 |
+
deepseekR1-studentPrompt-full\_context-concat(A,B) & 0.04 & 0.06 & 0.35 & 0.30 & 0.35 & 0.41 & 0.46 & 0.46 & 0.73 & 0.20 & 0.36 & 0.49 & 0.39 & 0.40 & 0.58 \\
|
25 |
+
deepseekR1-studentPrompt-full\_context-onlyA & 0.03 & 0.07 & 0.37 & 0.24 & 0.30 & 0.37 & 0.45 & 0.42 & 0.69 & 0.17 & 0.40 & 0.47 & 0.31 & 0.34 & 0.52 \\
|
26 |
+
deepseekR1-studentPrompt-full\_context-onlyB & 0.05 & 0.06 & 0.34 & 0.28 & 0.43 & 0.47 & 0.43 & 0.53 & 0.77 & 0.28 & 0.33 & 0.51 & 0.43 & 0.46 & 0.64 \\
|
27 |
+
\hline
|
28 |
+
gpt4o-extractor-full\_context-avg(A,B) & 0.25 & 0.54 & 0.53 & 0.32 & 0.43 & 0.47 & 0.27 & 0.30 & 0.57 & 0.27 & 0.45 & 0.50 & 0.14 & 0.15 & 0.32 \\
|
29 |
+
gpt4o-extractor-full\_context-concat(A,B) & 0.23 & 0.54 & 0.54 & 0.36 & 0.41 & 0.47 & 0.29 & 0.28 & 0.57 & 0.28 & 0.45 & 0.50 & 0.15 & 0.15 & 0.31 \\
|
30 |
+
gpt4o-extractor-full\_context-onlyA & 0.25 & 0.54 & 0.58 & 0.35 & 0.49 & 0.44 & 0.29 & 0.34 & 0.55 & 0.20 & 0.44 & 0.49 & 0.14 & 0.14 & 0.33 \\
|
31 |
+
gpt4o-extractor-full\_context-onlyB & 0.24 & 0.53 & 0.48 & 0.29 & 0.38 & 0.50 & 0.25 & 0.26 & 0.59 & 0.34 & 0.47 & 0.52 & 0.15 & 0.17 & 0.31 \\
|
32 |
+
\hline
|
33 |
+
gpt4o-graderPrompt-essay\_only-avg(A,B) & 0.21 & 0.45 & 0.49 & 0.16 & 0.22 & 0.28 & 0.20 & 0.27 & 0.28 & 0.29 & 0.39 & 0.51 & 0.32 & 0.35 & 0.54 \\
|
34 |
+
gpt4o-graderPrompt-essay\_only-concat(A,B) & 0.19 & 0.45 & 0.49 & 0.20 & 0.19 & 0.29 & 0.18 & 0.26 & 0.28 & 0.26 & 0.39 & 0.51 & 0.32 & 0.34 & 0.54 \\
|
35 |
+
gpt4o-graderPrompt-essay\_only-onlyA & 0.17 & 0.42 & 0.48 & 0.14 & 0.20 & 0.29 & 0.20 & 0.34 & 0.29 & 0.17 & 0.38 & 0.48 & 0.26 & 0.26 & 0.49 \\
|
36 |
+
gpt4o-graderPrompt-essay\_only-onlyB & 0.25 & 0.47 & 0.50 & 0.17 & 0.24 & 0.28 & 0.19 & 0.21 & 0.28 & 0.40 & 0.40 & 0.54 & 0.37 & 0.43 & 0.59 \\
|
37 |
+
\hline
|
38 |
+
gpt4o-studentPrompt-essay\_only-avg(A,B) & 0.22 & 0.43 & 0.51 & 0.16 & 0.27 & 0.20 & 0.26 & 0.30 & 0.38 & 0.30 & 0.40 & 0.51 & 0.28 & 0.31 & 0.55 \\
|
39 |
+
gpt4o-studentPrompt-essay\_only-concat(A,B) & 0.20 & 0.42 & 0.51 & 0.18 & 0.26 & 0.20 & 0.24 & 0.29 & 0.38 & 0.28 & 0.39 & 0.51 & 0.29 & 0.30 & 0.55 \\
|
40 |
+
gpt4o-studentPrompt-essay\_only-onlyA & 0.19 & 0.40 & 0.51 & 0.16 & 0.31 & 0.19 & 0.22 & 0.30 & 0.36 & 0.18 & 0.39 & 0.46 & 0.25 & 0.25 & 0.52 \\
|
41 |
+
gpt4o-studentPrompt-essay\_only-onlyB & 0.24 & 0.45 & 0.50 & 0.15 & 0.24 & 0.20 & 0.30 & 0.29 & 0.40 & 0.42 & 0.40 & 0.55 & 0.31 & 0.37 & 0.57 \\
|
42 |
+
gpt4o-studentPrompt-full\_context-avg(A,B) & 0.21 & 0.42 & 0.48 & 0.34 & 0.43 & 0.52 & 0.27 & 0.30 & 0.53 & 0.26 & 0.37 & 0.49 & 0.17 & 0.19 & 0.35 \\
|
43 |
+
gpt4o-studentPrompt-full\_context-concat(A,B) & 0.18 & 0.42 & 0.48 & 0.38 & 0.41 & 0.51 & 0.25 & 0.29 & 0.53 & 0.24 & 0.37 & 0.49 & 0.17 & 0.19 & 0.35 \\
|
44 |
+
gpt4o-studentPrompt-full\_context-onlyA & 0.15 & 0.36 & 0.48 & 0.36 & 0.48 & 0.47 & 0.26 & 0.36 & 0.50 & 0.17 & 0.37 & 0.43 & 0.14 & 0.16 & 0.37 \\
|
45 |
+
gpt4o-studentPrompt-full\_context-onlyB & 0.26 & 0.48 & 0.48 & 0.31 & 0.37 & 0.57 & 0.28 & 0.25 & 0.56 & 0.35 & 0.37 & 0.55 & 0.21 & 0.22 & 0.34 \\
|
46 |
+
\hline
|
47 |
+
sabia3-extractor-full\_context-avg(A,B) & 0.10 & 0.26 & 0.31 & 0.16 & 0.24 & 0.28 & 0.20 & 0.29 & 0.21 & 0.18 & 0.38 & 0.38 & 0.22 & 0.24 & 0.51 \\
|
48 |
+
sabia3-extractor-full\_context-concat(A,B) & 0.09 & 0.26 & 0.31 & 0.15 & 0.21 & 0.28 & 0.19 & 0.27 & 0.21 & 0.17 & 0.38 & 0.38 & 0.23 & 0.23 & 0.52 \\
|
49 |
+
sabia3-extractor-full\_context-onlyA & 0.09 & 0.24 & 0.29 & 0.21 & 0.34 & 0.29 & 0.20 & 0.37 & 0.24 & 0.19 & 0.42 & 0.35 & 0.22 & 0.25 & 0.46 \\
|
50 |
+
sabia3-extractor-full\_context-onlyB & 0.11 & 0.28 & 0.33 & 0.12 & 0.14 & 0.27 & 0.20 & 0.21 & 0.19 & 0.18 & 0.35 & 0.40 & 0.21 & 0.23 & 0.56 \\
|
51 |
+
\hline
|
52 |
+
sabia3-graderPrompt-essay\_only-avg(A,B) & 0.23 & 0.42 & 0.53 & 0.11 & 0.12 & 0.06 & 0.28 & 0.33 & 0.34 & 0.24 & 0.43 & 0.55 & 0.33 & 0.38 & 0.59 \\
|
53 |
+
sabia3-graderPrompt-essay\_only-concat(A,B) & 0.21 & 0.42 & 0.53 & 0.09 & 0.11 & 0.06 & 0.25 & 0.32 & 0.34 & 0.22 & 0.43 & 0.55 & 0.33 & 0.37 & 0.59 \\
|
54 |
+
sabia3-graderPrompt-essay\_only-onlyA & 0.23 & 0.44 & 0.51 & 0.15 & 0.10 & 0.09 & 0.22 & 0.34 & 0.30 & 0.15 & 0.42 & 0.50 & 0.26 & 0.30 & 0.54 \\
|
55 |
+
sabia3-graderPrompt-essay\_only-onlyB & 0.22 & 0.40 & 0.55 & 0.07 & 0.13 & 0.03 & 0.33 & 0.33 & 0.38 & 0.32 & 0.45 & 0.60 & 0.41 & 0.46 & 0.63 \\
|
56 |
+
sabia3-graderPrompt-full\_context-avg(A,B) & 0.24 & 0.50 & 0.50 & 0.33 & 0.43 & 0.50 & 0.33 & 0.37 & 0.54 & 0.31 & 0.49 & 0.53 & 0.28 & 0.32 & 0.50 \\
|
57 |
+
sabia3-graderPrompt-full\_context-concat(A,B) & 0.23 & 0.50 & 0.50 & 0.37 & 0.41 & 0.49 & 0.37 & 0.36 & 0.54 & 0.29 & 0.49 & 0.53 & 0.29 & 0.31 & 0.50 \\
|
58 |
+
sabia3-graderPrompt-full\_context-onlyA & 0.23 & 0.50 & 0.48 & 0.37 & 0.45 & 0.47 & 0.37 & 0.39 & 0.53 & 0.22 & 0.52 & 0.53 & 0.29 & 0.36 & 0.51 \\
|
59 |
+
sabia3-graderPrompt-full\_context-onlyB & 0.26 & 0.51 & 0.51 & 0.29 & 0.41 & 0.52 & 0.29 & 0.35 & 0.55 & 0.40 & 0.47 & 0.53 & 0.27 & 0.28 & 0.48 \\
|
60 |
+
\hline
|
61 |
+
sabia3-studentPrompt-essay\_only-avg(A,B) & 0.35 & 0.66 & 0.69 & 0.11 & 0.11 & 0.01 & 0.23 & 0.32 & 0.30 & 0.31 & 0.53 & 0.52 & 0.29 & 0.35 & 0.51 \\
|
62 |
+
sabia3-studentPrompt-essay\_only-concat(A,B) & 0.32 & 0.66 & 0.69 & 0.08 & 0.11 & 0.02 & 0.22 & 0.30 & 0.30 & 0.29 & 0.52 & 0.52 & 0.30 & 0.34 & 0.51 \\
|
63 |
+
sabia3-studentPrompt-essay\_only-onlyA & 0.31 & 0.61 & 0.66 & 0.14 & 0.08 & 0.04 & 0.20 & 0.41 & 0.27 & 0.23 & 0.56 & 0.54 & 0.29 & 0.32 & 0.47 \\
|
64 |
+
sabia3-studentPrompt-essay\_only-onlyB & 0.40 & 0.72 & 0.72 & 0.08 & 0.14 & -0.02 & 0.25 & 0.23 & 0.33 & 0.38 & 0.49 & 0.49 & 0.30 & 0.38 & 0.55 \\
|
65 |
+
sabia3-studentPrompt-full\_context-avg(A,B) & 0.35 & 0.60 & 0.58 & 0.28 & 0.42 & 0.47 & 0.21 & 0.24 & 0.45 & 0.28 & 0.43 & 0.39 & 0.27 & 0.28 & 0.54 \\
|
66 |
+
sabia3-studentPrompt-full\_context-concat(A,B) & 0.32 & 0.60 & 0.57 & 0.31 & 0.40 & 0.46 & 0.23 & 0.22 & 0.45 & 0.25 & 0.43 & 0.39 & 0.27 & 0.28 & 0.53 \\
|
67 |
+
sabia3-studentPrompt-full\_context-onlyA & 0.33 & 0.58 & 0.54 & 0.30 & 0.38 & 0.35 & 0.23 & 0.28 & 0.43 & 0.18 & 0.46 & 0.41 & 0.25 & 0.25 & 0.54 \\
|
68 |
+
sabia3-studentPrompt-full\_context-onlyB & 0.37 & 0.62 & 0.62 & 0.26 & 0.46 & 0.59 & 0.18 & 0.19 & 0.47 & 0.38 & 0.41 & 0.36 & 0.30 & 0.31 & 0.53 \\
|
69 |
+
\hline\hline
|
70 |
+
llama3.1-8b-lora-essay-only-r16-avg(A,B) & 0.53 & 0.67 & 0.69 & 0.26 & 0.36 & 0.36 & 0.26 & 0.30 & 0.43 & 0.31 & 0.45 & 0.45 & 0.21 & 0.22 & 0.36 \\
|
71 |
+
llama3.1-8b-lora-essay-only-r16-concat(A,B) & 0.48 & 0.67 & 0.69 & 0.25 & 0.35 & 0.36 & 0.25 & 0.28 & 0.43 & 0.26 & 0.45 & 0.45 & 0.22 & 0.21 & 0.36 \\
|
72 |
+
llama3.1-8b-lora-essay-only-r16-onlyA & 0.53 & 0.69 & 0.71 & 0.21 & 0.36 & 0.33 & 0.22 & 0.33 & 0.39 & 0.37 & 0.50 & 0.47 & 0.14 & 0.15 & 0.28 \\
|
73 |
+
llama3.1-8b-lora-essay-only-r16-onlyB & 0.53 & 0.65 & 0.67 & 0.32 & 0.36 & 0.39 & 0.31 & 0.26 & 0.47 & 0.24 & 0.41 & 0.43 & 0.28 & 0.29 & 0.44 \\
|
74 |
+
\hline
|
75 |
+
llama3.1-8b-lora-essay-only-r8-avg(A,B) & 0.49 & 0.67 & 0.65 & 0.16 & 0.19 & 0.32 & 0.25 & 0.37 & 0.37 & 0.24 & 0.53 & 0.39 & 0.26 & 0.28 & 0.29 \\
|
76 |
+
llama3.1-8b-lora-essay-only-r8-concat(A,B) & 0.45 & 0.66 & 0.65 & 0.16 & 0.16 & 0.32 & 0.24 & 0.36 & 0.37 & 0.22 & 0.53 & 0.39 & 0.27 & 0.27 & 0.30 \\
|
77 |
+
llama3.1-8b-lora-essay-only-r8-onlyA & 0.47 & 0.68 & 0.64 & 0.08 & 0.09 & 0.24 & 0.23 & 0.46 & 0.37 & 0.22 & 0.55 & 0.41 & 0.26 & 0.27 & 0.23 \\
|
78 |
+
llama3.1-8b-lora-essay-only-r8-onlyB & 0.51 & 0.65 & 0.65 & 0.24 & 0.30 & 0.40 & 0.26 & 0.27 & 0.37 & 0.26 & 0.52 & 0.37 & 0.27 & 0.30 & 0.36 \\
|
79 |
+
\hline
|
80 |
+
llama3.1-8b-lora-full-context-r16-avg(A,B) & 0.51 & 0.68 & 0.66 & 0.20 & 0.25 & 0.33 & 0.24 & 0.26 & 0.32 & 0.26 & 0.51 & 0.44 & 0.25 & 0.24 & 0.19 \\
|
81 |
+
llama3.1-8b-lora-full-context-r16-concat(A,B) & 0.46 & 0.68 & 0.66 & 0.21 & 0.22 & 0.33 & 0.22 & 0.26 & 0.32 & 0.23 & 0.50 & 0.44 & 0.26 & 0.24 & 0.19 \\
|
82 |
+
llama3.1-8b-lora-full-context-r16-onlyA & 0.48 & 0.68 & 0.64 & 0.14 & 0.18 & 0.29 & 0.22 & 0.28 & 0.26 & 0.19 & 0.44 & 0.35 & 0.20 & 0.24 & 0.21 \\
|
83 |
+
llama3.1-8b-lora-full-context-r16-onlyB & 0.54 & 0.69 & 0.68 & 0.26 & 0.33 & 0.38 & 0.25 & 0.25 & 0.38 & 0.33 & 0.57 & 0.54 & 0.30 & 0.25 & 0.17 \\
|
84 |
+
\hline
|
85 |
+
llama3.1-8b-lora-full-context-r8-avg(A,B) & 0.41 & 0.57 & 0.60 & 0.21 & 0.29 & 0.25 & 0.25 & 0.28 & 0.32 & 0.39 & 0.55 & 0.54 & 0.21 & 0.20 & 0.18 \\
|
86 |
+
llama3.1-8b-lora-full-context-r8-concat(A,B) & 0.37 & 0.57 & 0.59 & 0.21 & 0.26 & 0.24 & 0.23 & 0.28 & 0.32 & 0.33 & 0.55 & 0.54 & 0.23 & 0.19 & 0.18 \\
|
87 |
+
llama3.1-8b-lora-full-context-r8-onlyA & 0.38 & 0.59 & 0.56 & 0.17 & 0.26 & 0.23 & 0.25 & 0.33 & 0.29 & 0.34 & 0.51 & 0.44 & 0.18 & 0.22 & 0.19 \\
|
88 |
+
llama3.1-8b-lora-full-context-r8-onlyB & 0.43 & 0.56 & 0.63 & 0.25 & 0.32 & 0.26 & 0.24 & 0.24 & 0.34 & 0.44 & 0.59 & 0.64 & 0.25 & 0.17 & 0.17 \\
|
89 |
+
\hline
|
90 |
+
phi3.5-mini-lora-essay-only-r16-avg(A,B) & 0.33 & 0.40 & 0.45 & 0.21 & 0.26 & 0.28 & 0.24 & 0.28 & 0.22 & 0.29 & 0.50 & 0.27 & 0.19 & 0.24 & 0.25 \\
|
91 |
+
phi3.5-mini-lora-essay-only-r16-concat(A,B) & 0.30 & 0.40 & 0.45 & 0.21 & 0.23 & 0.28 & 0.22 & 0.28 & 0.22 & 0.24 & 0.50 & 0.27 & 0.19 & 0.24 & 0.25 \\
|
92 |
+
phi3.5-mini-lora-essay-only-r16-onlyA & 0.31 & 0.42 & 0.42 & 0.15 & 0.22 & 0.23 & 0.19 & 0.26 & 0.16 & 0.28 & 0.47 & 0.31 & 0.14 & 0.16 & 0.25 \\
|
93 |
+
phi3.5-mini-lora-essay-only-r16-onlyB & 0.36 & 0.38 & 0.49 & 0.28 & 0.29 & 0.33 & 0.29 & 0.30 & 0.27 & 0.30 & 0.53 & 0.24 & 0.23 & 0.31 & 0.26 \\
|
94 |
+
\hline
|
95 |
+
phi3.5-mini-lora-essay-only-r8-avg(A,B) & 0.33 & 0.40 & 0.45 & 0.21 & 0.26 & 0.28 & 0.24 & 0.28 & 0.22 & 0.29 & 0.50 & 0.27 & 0.19 & 0.24 & 0.25 \\
|
96 |
+
phi3.5-mini-lora-essay-only-r8-concat(A,B) & 0.30 & 0.40 & 0.45 & 0.21 & 0.23 & 0.28 & 0.22 & 0.28 & 0.22 & 0.24 & 0.50 & 0.27 & 0.19 & 0.24 & 0.25 \\
|
97 |
+
phi3.5-mini-lora-essay-only-r8-onlyA & 0.31 & 0.42 & 0.42 & 0.15 & 0.22 & 0.23 & 0.19 & 0.26 & 0.16 & 0.28 & 0.47 & 0.31 & 0.14 & 0.16 & 0.25 \\
|
98 |
+
phi3.5-mini-lora-essay-only-r8-onlyB & 0.36 & 0.38 & 0.49 & 0.28 & 0.29 & 0.33 & 0.29 & 0.30 & 0.27 & 0.30 & 0.53 & 0.24 & 0.23 & 0.31 & 0.26 \\
|
99 |
+
\hline
|
100 |
+
phi3.5-mini-lora-full-context-r16-avg(A,B) & 0.19 & 0.29 & 0.28 & 0.14 & 0.22 & -0.03 & 0.28 & 0.35 & 0.44 & 0.11 & 0.20 & 0.08 & 0.18 & 0.19 & 0.19 \\
|
101 |
+
phi3.5-mini-lora-full-context-r16-concat(A,B) & 0.17 & 0.29 & 0.28 & 0.14 & 0.21 & -0.02 & 0.26 & 0.34 & 0.45 & 0.09 & 0.20 & 0.08 & 0.19 & 0.18 & 0.19 \\
|
102 |
+
phi3.5-mini-lora-full-context-r16-onlyA & 0.15 & 0.27 & 0.25 & 0.14 & 0.23 & 0.00 & 0.22 & 0.34 & 0.36 & 0.10 & 0.16 & 0.12 & 0.14 & 0.18 & 0.20 \\
|
103 |
+
phi3.5-mini-lora-full-context-r16-onlyB & 0.23 & 0.31 & 0.31 & 0.14 & 0.20 & -0.06 & 0.34 & 0.37 & 0.52 & 0.12 & 0.23 & 0.04 & 0.21 & 0.20 & 0.18 \\
|
104 |
+
\hline
|
105 |
+
phi3.5-mini-lora-full-context-r8-avg(A,B) & 0.19 & 0.29 & 0.28 & 0.14 & 0.22 & -0.03 & 0.28 & 0.35 & 0.44 & 0.11 & 0.20 & 0.08 & 0.18 & 0.19 & 0.19 \\
|
106 |
+
phi3.5-mini-lora-full-context-r8-concat(A,B) & 0.17 & 0.29 & 0.28 & 0.14 & 0.21 & -0.02 & 0.26 & 0.34 & 0.45 & 0.09 & 0.20 & 0.08 & 0.19 & 0.18 & 0.19 \\
|
107 |
+
phi3.5-mini-lora-full-context-r8-onlyA & 0.15 & 0.27 & 0.25 & 0.14 & 0.23 & 0.00 & 0.22 & 0.34 & 0.36 & 0.10 & 0.16 & 0.12 & 0.14 & 0.18 & 0.20 \\
|
108 |
+
phi3.5-mini-lora-full-context-r8-onlyB & 0.23 & 0.31 & 0.31 & 0.14 & 0.20 & -0.06 & 0.34 & 0.37 & 0.52 & 0.12 & 0.23 & 0.04 & 0.21 & 0.20 & 0.18 \\
|
109 |
+
\hline
|
110 |
+
phi4-lora-essay-only-r16-avg(A,B) & 0.53 & 0.66 & 0.70 & 0.19 & 0.25 & 0.21 & 0.25 & 0.34 & 0.41 & 0.38 & 0.63 & 0.58 & 0.36 & 0.42 & 0.65 \\
|
111 |
+
phi4-lora-essay-only-r16-concat(A,B) & 0.48 & 0.65 & 0.70 & 0.20 & 0.23 & 0.21 & 0.23 & 0.34 & 0.42 & 0.31 & 0.63 & 0.58 & 0.37 & 0.42 & 0.65 \\
|
112 |
+
phi4-lora-essay-only-r16-onlyA & 0.49 & 0.66 & 0.69 & 0.13 & 0.22 & 0.22 & 0.21 & 0.37 & 0.37 & 0.43 & 0.64 & 0.52 & 0.37 & 0.42 & 0.64 \\
|
113 |
+
phi4-lora-essay-only-r16-onlyB & 0.58 & 0.65 & 0.70 & 0.26 & 0.29 & 0.20 & 0.29 & 0.32 & 0.46 & 0.33 & 0.63 & 0.65 & 0.35 & 0.43 & 0.66 \\
|
114 |
+
\hline
|
115 |
+
phi4-lora-essay-only-r8-avg(A,B) & 0.50 & 0.61 & 0.67 & 0.28 & 0.39 & 0.34 & 0.24 & 0.31 & 0.33 & 0.30 & 0.58 & 0.48 & 0.44 & 0.49 & 0.59 \\
|
116 |
+
phi4-lora-essay-only-r8-concat(A,B) & 0.45 & 0.61 & 0.67 & 0.27 & 0.36 & 0.33 & 0.24 & 0.31 & 0.33 & 0.25 & 0.58 & 0.48 & 0.44 & 0.49 & 0.59 \\
|
117 |
+
phi4-lora-essay-only-r8-onlyA & 0.49 & 0.63 & 0.68 & 0.19 & 0.32 & 0.29 & 0.24 & 0.36 & 0.30 & 0.31 & 0.60 & 0.47 & 0.44 & 0.49 & 0.60 \\
|
118 |
+
phi4-lora-essay-only-r8-onlyB & 0.51 & 0.60 & 0.66 & 0.37 & 0.46 & 0.39 & 0.24 & 0.26 & 0.36 & 0.29 & 0.55 & 0.49 & 0.43 & 0.49 & 0.58 \\
|
119 |
+
\hline
|
120 |
+
phi4-lora-full-context-r16-avg(A,B) & 0.41 & 0.58 & 0.61 & 0.42 & 0.52 & 0.60 & 0.42 & 0.48 & 0.66 & 0.35 & 0.50 & 0.60 & 0.29 & 0.33 & 0.53 \\
|
121 |
+
phi4-lora-full-context-r16-concat(A,B) & 0.38 & 0.57 & 0.61 & 0.40 & 0.50 & 0.60 & 0.39 & 0.47 & 0.66 & 0.29 & 0.50 & 0.60 & 0.30 & 0.32 & 0.53 \\
|
122 |
+
phi4-lora-full-context-r16-onlyA & 0.44 & 0.60 & 0.62 & 0.36 & 0.59 & 0.56 & 0.32 & 0.46 & 0.66 & 0.34 & 0.47 & 0.55 & 0.24 & 0.29 & 0.50 \\
|
123 |
+
phi4-lora-full-context-r16-onlyB & 0.38 & 0.55 & 0.61 & 0.47 & 0.46 & 0.65 & 0.51 & 0.51 & 0.66 & 0.36 & 0.54 & 0.64 & 0.33 & 0.37 & 0.56 \\
|
124 |
+
\hline
|
125 |
+
phi4-lora-full-context-r8-avg(A,B) & 0.48 & 0.63 & 0.67 & 0.40 & 0.50 & 0.59 & 0.37 & 0.38 & 0.57 & 0.37 & 0.58 & 0.55 & 0.29 & 0.32 & 0.52 \\
|
126 |
+
phi4-lora-full-context-r8-concat(A,B) & 0.43 & 0.62 & 0.67 & 0.39 & 0.47 & 0.59 & 0.34 & 0.37 & 0.57 & 0.33 & 0.58 & 0.55 & 0.30 & 0.31 & 0.52 \\
|
127 |
+
phi4-lora-full-context-r8-onlyA & 0.45 & 0.61 & 0.66 & 0.28 & 0.46 & 0.56 & 0.25 & 0.33 & 0.53 & 0.30 & 0.58 & 0.50 & 0.25 & 0.28 & 0.49 \\
|
128 |
+
phi4-lora-full-context-r8-onlyB & 0.52 & 0.64 & 0.68 & 0.53 & 0.54 & 0.62 & 0.49 & 0.44 & 0.61 & 0.44 & 0.57 & 0.60 & 0.34 & 0.35 & 0.55 \\
|
129 |
+
\hline\hline
|
130 |
+
bertimbau-base-essay-only-avg(A,B) & 0.42 & 0.52 & 0.60 & 0.26 & 0.37 & 0.36 & 0.23 & 0.28 & 0.35 & 0.38 & 0.55 & 0.55 & 0.29 & 0.37 & 0.63 \\
|
131 |
+
bertimbau-base-essay-only-concat(A,B) & 0.37 & 0.52 & 0.60 & 0.25 & 0.35 & 0.35 & 0.22 & 0.27 & 0.35 & 0.32 & 0.55 & 0.55 & 0.30 & 0.36 & 0.63 \\
|
132 |
+
bertimbau-base-essay-only-onlyA & 0.35 & 0.52 & 0.59 & 0.18 & 0.34 & 0.28 & 0.17 & 0.29 & 0.34 & 0.40 & 0.58 & 0.49 & 0.29 & 0.34 & 0.60 \\
|
133 |
+
bertimbau-base-essay-only-onlyB & 0.49 & 0.51 & 0.61 & 0.34 & 0.39 & 0.44 & 0.29 & 0.27 & 0.36 & 0.36 & 0.52 & 0.61 & 0.30 & 0.40 & 0.65 \\
|
134 |
+
\hline
|
135 |
+
bertimbau-large-essay-only-avg(A,B) & 0.52 & 0.69 & 0.68 & 0.33 & 0.43 & 0.32 & 0.19 & 0.26 & 0.24 & 0.48 & 0.61 & 0.60 & 0.29 & 0.37 & 0.46 \\
|
136 |
+
bertimbau-large-essay-only-concat(A,B) & 0.46 & 0.69 & 0.68 & 0.32 & 0.41 & 0.32 & 0.17 & 0.26 & 0.25 & 0.46 & 0.60 & 0.60 & 0.30 & 0.36 & 0.46 \\
|
137 |
+
bertimbau-large-essay-only-onlyA & 0.49 & 0.71 & 0.69 & 0.26 & 0.43 & 0.24 & 0.14 & 0.25 & 0.18 & 0.31 & 0.54 & 0.53 & 0.34 & 0.43 & 0.49 \\
|
138 |
+
bertimbau-large-essay-only-onlyB & 0.54 & 0.67 & 0.67 & 0.40 & 0.44 & 0.41 & 0.24 & 0.26 & 0.30 & 0.65 & 0.67 & 0.67 & 0.25 & 0.31 & 0.43 \\
|
139 |
+
\hline
|
140 |
+
bertugues-base-essay-only-avg(A,B) & 0.44 & 0.56 & 0.62 & 0.14 & 0.19 & 0.33 & 0.25 & 0.36 & 0.29 & 0.35 & 0.51 & 0.54 & 0.23 & 0.28 & 0.36 \\
|
141 |
+
bertugues-base-essay-only-concat(A,B) & 0.39 & 0.56 & 0.61 & 0.14 & 0.18 & 0.33 & 0.26 & 0.35 & 0.29 & 0.29 & 0.51 & 0.54 & 0.24 & 0.27 & 0.36 \\
|
142 |
+
bertugues-base-essay-only-onlyA & 0.35 & 0.53 & 0.54 & 0.14 & 0.29 & 0.34 & 0.22 & 0.36 & 0.29 & 0.37 & 0.50 & 0.50 & 0.24 & 0.31 & 0.37 \\
|
143 |
+
bertugues-base-essay-only-onlyB & 0.53 & 0.60 & 0.70 & 0.14 & 0.10 & 0.33 & 0.28 & 0.35 & 0.28 & 0.32 & 0.51 & 0.58 & 0.22 & 0.24 & 0.35 \\
|
144 |
+
\hline
|
145 |
+
mbert-base-essay-only-avg(A,B) & 0.40 & 0.59 & 0.52 & 0.18 & 0.27 & 0.22 & 0.25 & 0.32 & 0.35 & 0.35 & 0.55 & 0.50 & 0.08 & 0.09 & 0.00 \\
|
146 |
+
mbert-base-essay-only-concat(A,B) & 0.35 & 0.59 & 0.51 & 0.19 & 0.26 & 0.22 & 0.22 & 0.32 & 0.36 & 0.29 & 0.55 & 0.50 & 0.08 & 0.09 & 0.00 \\
|
147 |
+
mbert-base-essay-only-onlyA & 0.34 & 0.56 & 0.42 & 0.17 & 0.29 & 0.24 & 0.19 & 0.30 & 0.31 & 0.37 & 0.57 & 0.40 & 0.06 & 0.04 & 0.01 \\
|
148 |
+
mbert-base-essay-only-onlyB & 0.46 & 0.62 & 0.61 & 0.19 & 0.26 & 0.21 & 0.30 & 0.35 & 0.40 & 0.34 & 0.53 & 0.59 & 0.10 & 0.14 & -0.01 \\
|
149 |
+
\hline\hline
|
150 |
+
\end{tabular}%
|