Les serveurs à usage général n'ont pas besoin d'un GPU moderne - juste assez pour afficher un bureau de console de taille moyenne. Ils traitent principalement de l'informatique et de la mise en réseau régulières du processeur.
Cependant, les VGA Matrox G200 sont couramment utilisés sur les serveurs en raison de leur intégration avec un contrôleur de gestion de carte mère (BMC, également connu sous le nom d'iLO, iDRAC ou IPMI).
Ce contrôleur de gestion agit comme un système indépendant avec son propre système d'exploitation et permet à l'administrateur du serveur de se connecter à distance à l'écran et au clavier de la console - ils peuvent voir les écrans du BIOS, redémarrer un serveur même s'il est complètement gelé, voire le démarrer à pleine puissance. à l'arrêt. Pour ces tâches, le contrôleur doit savoir ce que la carte graphique affiche en ce moment.
Alors je suppose que les anciens adaptateurs vidéo Matrox sont utilisés pour cela car ils stockent le tampon vidéo dans la RAM système (au lieu de leur propre VRAM) et utilisent une disposition de données suffisamment simple pour que le BMC puisse le déchiffrer sans avoir besoin de connaissances obscures sur les composants internes du GPU, ni sans toute aide du système d'exploitation principal.
(Ou peut-être le contraire - comme mentionné dans les commentaires, le G200 est généralement intégré le BMC, donnant éventuellement au BMC un accès complètement direct au tampon vidéo du G200.)
Mais même si le serveur était conçu pour le calcul GPU, je suppose qu'il n'aurait pas de "carte graphique tout-en-un" comme le font les PC, mais plutôt un ensemble de cartes dédiées GPGPU de calcul uniquement (par exemple de nVidia) pour le travail lourd - et toujours le même Matrox VGA pour la console.
Cette Matrox G200eR2 n'est pas une carte vidéo séparée. C'est une puce directement intégrée à la carte mère du serveur. Elle est bon marché, très fiable, facile à intégrer et offre une excellente capacité d'affichage de texte (console) et une capacité graphique 2D décente. bien connu que presque tous les systèmes d'exploitation pour le matériel Intel ont un support de pilote intégré pour cela.
Le seul but d'une carte VGA est d'obtenir un affichage de console de base que vous pouvez utiliser pour la configuration du Bios et l'installation initiale du serveur. Après cela, vous n'accéderez probablement plus au serveur qu'à distance. Il n'est pas nécessaire que ce soit une bonne carte VGA. Vous n'allez pas jouer dessus. Mais c'est une bénédiction majeure si cela fonctionne prêt à l'emploi avec n'importe quel système d'exploitation que vous allez installer sur le serveur. Et c'est tout ce dont vous avez besoin et ce que vous voulez dans un serveur.
Les puces Matrox ont toujours été très populaires à cette fin et celle-ci était encore utilisée en 2014 dans les nouveaux serveurs Dell et probablement dans d'autres marques également.
Pourquoi mon université les aurait-elle dans un serveur moderne (CPU est sorti fin 2013) ?
Parce qu'un serveur n'a pas besoin d'un GPU performant.
Et au fait, Matrox avait un bon multi-moniteur cartes graphiques bien avant qu'ATI/AMD et NVidia en aient.
La décision était donc probablement logique au moment de l'achat.