Effectivement, un réseau de neurones déjà entraîné peut être assez « compact », on imagine bien que ce n'est pas le MO5 qui va l'entraîner. Mais pour qu'un réseau soit capable de faire quelque chose d'intéressant, il faut beaucoup de neurones.
Une petite recherche me dit que AlphaGo utilise un réseau en 13 couches, avec un nombre d'entrées évaluant 48 caractéristiques de chacun des 19x19 emplacement (donc 17328 entrées). Les couches suivantes possèdent moins de neurones (principe des réseaux de convolution) mais... ça fait un paquet au final. Et chaque neurone, c'est un nombre pour sa valeur et un autre nombre (facteur) pour chacune des connexions entrantes (en sachant qu'entre deux couches complètement connectées, chaque neurone d'un niveau est connecté à tous les neurones de la couche immédiatement précédente)
Après, comme AlphaGo ne va pas tourner sur MO5, on peut imaginer quelque chose de beaucoup plus petit en terme de caractéristiques mesurées. Ou bien sur un Goban de 9x9 ou 13x13, qui sont des versions classiques pour apprendre le jeu.
Je pense qu'il est tout à fait possible de faire rentrer un réseau de neurones fixe (qui n'apprend plus lors des parties) sur MO5. Il ne sera probablement pas très rapide ni très fort, mais techniquement... ça doit être faisable, pour le fun. Il doit être possible aussi de simplifier des connexions si celles-ci n'ont pas beaucoup de poids.
Et c'est pour ça que j'attends de voir