tdm:master
from tdm:more-easy-mapping
| mapping-tools/v1/apc/2018/doi.ini |
|---|
| mapping-tools/v1/halAuthorId/idRef/json.ini |
|---|
| mapping-tools/v1/homogenize/documentType/json.ini |
|---|
| mapping-tools/v1/homogenize/publisher/json.ini |
|---|
| mapping-tools/v1/homogenize/source/json.ini |
|---|
| mapping-tools/v1/idRef/orcid/json.ini |
|---|
| mapping-tools/v1/inspire-category/meta-category/json.ini |
|---|
| mapping-tools/v1/inspire-labos/in2p3-labos/json.ini |
|---|
| mapping-tools/v1/rnsr/instituts-cnrs/json.ini |
|---|
à valider avant de merger
Ça marche bien quand on relance plusieurs fois la même requête (la première fois, il y a le temps de chargement de la table, puis c'est toujours en-dessous des 300ms).
Edit: dans VSCode.
La plus grosse table étant celle
halAuthorId/idRef, j'ai essayé via le fichierexamples.http. La première fois, ça a mis 9s. Les suivantes, entre 100ms et 220ms.Mais quand j'essaye une requête avec des valeurs pas encore rencontrées, ça se remet à prendre plus de 11s:
$ time curl -X 'POST' \ 'http://localhost:31976/v1/halAuthorId/idRef/json' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '[ { "id": 0, "value": "https://data.archives-ouvertes.fr/author/11209187" }, { "id": 1, "value": 619030 } ]' [{ "id": 0, "value": "http://www.idref.fr/254974716/id" }, { "id": 1, "value": "http://www.idref.fr/254015476/id" }] curl -X 'POST' 'http://localhost:31976/v1/halAuthorId/idRef/json' -H -H -d 0,00s user 0,01s system 0% cpu 11,128 total11,128 secondes.
Plus étonnant, en relançant la même requête quelques minutes plus tard, elle prend toujours 10,7s (je m'attendais à ce qu'elle soit aux alentours de 200ms).
$ time curl -X 'POST' \ 'http://localhost:31976/v1/halAuthorId/idRef/json' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '[ { "id": 0, "value": "https://data.archives-ouvertes.fr/author/11209187" }, { "id": 1, "value": 619030 } ]' [{ "id": 0, "value": "http://www.idref.fr/254974716/id" }, { "id": 1, "value": "http://www.idref.fr/254015476/id" }]curl -X 'POST' 'http://localhost:31976/v1/halAuthorId/idRef/json' -H -H -d 0,01s user 0,00s system 0% cpu 10,702 totalDu côté serveur, c'est bien l'instruction
combinequi prend du temps:La trace montre que combine utilise encore le répertoire /tmp ce qui semble indiquer que ce n'est pas la toute dernière version qui est utilisée.
mais, dans tous les cas, tu as raison ça restera long : [combine] exécute le sous flux une seule fois par jeu de données mais il le refait à chaque fois. Pour éviter cela il faut utiliser [expand] et donc la version d'origine... cqfd
so at now expand is necessary