Tilelli / Tilelli Med / Méthodes
Une description technique brève et honnête. Ce que nous avons fait, comment nous l'avons évalué, et ce que nous n'avons pas fait.
Nous utilisons ComplEx (Trouillon et al., 2016) : une fonction de score par factorisation tensorielle à valeurs complexes sur des triplets (tête, relation, queue). Pour un triplet (h, r, t), le score est la partie réelle de <h, r, conj(t)> sur des plongements complexes.
Nous ajoutons le régularisateur N3 (Lacroix et al., 2018), une régularisation de puissance tensorielle L3 qui domine systématiquement L2/Frobenius pour les modèles de la famille ComplEx, et les relations réciproques : chaque triplet d'entraînement (h, r, t) est augmenté avec (t, r⁻¹, h). La recette combinée (« ComplEx-N3 ») est le niveau de référence publié sur les benchmarks standards de graphes de connaissances.
Les tables réelle et imaginaire de chaque entité sont quantifiées indépendamment dans {−1, 0, +1} avec une petite échelle flottante par bloc. La taille de bloc B est le bouton : B=1 signifie une échelle unique par ligne (compression maximale), B=512 une échelle par dimension (pas de compression). À B=128, on obtient 5,3× de compression des tables d'entités et le modèle dépasse encore le classement TransE d'OGBL.
Nous utilisons le protocole filtré officiel d'OGB : chaque triplet de test est livré avec 500 négatifs contraints par type, déjà filtrés contre les splits train + valid + test. Nous classons l'or contre (or + 500 négatifs) côté tête et queue, et rapportons le rang réciproque moyen.
Nous avons entraîné 3 modèles ComplEx-N3 indépendants avec graines 1, 2, 3 :
| Graine | MRR Validation | Hits@1 | Hits@10 |
|---|---|---|---|
| 1 | 0,8378 | 0,774 | 0,946 |
| 2 | 0,8427 | 0,786 | 0,945 |
| 3 | 0,8436 | 0,785 | 0,949 |
| Moyenne ± écart | 0,8414 ± 0,003 | 0,782 ± 0,005 | 0,947 ± 0,002 |
Un écart de 0,003 entre graines signifie que le résultat est stable.
| Bloc | MRR | Hits@1 | Hits@10 | Compression |
|---|---|---|---|---|
| Maître flottant | 0,847 | 0,790 | 0,949 | 1× |
| B=256 | 0,794 | 0,717 | 0,939 | 3,2× |
| B=128 | 0,752 | 0,667 | 0,923 | 5,3× |
| B=64 | 0,730 | 0,637 | 0,914 | 8,0× |
| B=1 (par ligne) | 0,696 | 0,592 | 0,901 | 15,8× |
Repères du classement : TransE 0,745, RotatE 0,799, ComplEx 0,810. Notre ternaire B=128 dépasse TransE ; B=256 se situe entre TransE et RotatE.
Nous avons entraîné un petit MLP qui prend les plongements flottants (h, r) et prédit si l'élève ternaire sera d'accord avec le maître flottant sur le top-1 queue pour cette requête. Cela donne un signal de confiance par requête — cliniquement utile, car « est-ce que le modèle bon marché est fiable pour ce cas ? » est la vraie question.
C'est l'analogue médical de la métacognition de style NEO que nous mesurons sur les modèles de chat de pointe — exposée non comme un signal de boîte noire mais comme un petit prédicteur auditable dont l'AUC et le Brier sont rapportés à chaque version.
Pour une maladie cible D (UMLS CUI) :
contraindication comme relation de première classe — voir le suivi PrimeKG.