Bienvenue sur le rkllama Web Client, une interface web légère pour interagir avec rkllama, un outil permettant d'exécuter des modèles de langage sur les NPUs Rockchip.
Le rkllama Web Client offre une interface web conviviale pour rkllama, optimisée pour le matériel Rockchip. Idéal pour les développeurs travaillant avec des modèles de langage sur NPUs.
- Matériel compatible avec les NPUs Rockchip (ex. : RK3588 ou RK3576).
- rkllama installé et fonctionnel.
- Système Linux (ce guide cible Linux, ex. : Ubuntu/Debian).
- Git (optionnel).
-
Clonez le dépôt rkllama :
git clone https://github.com/NotPunchnox/rkllama.git cd rkllama
-
Installer rkllama ( documentation: https://github.com/NotPunchnox/rkllama)
Remarque : Une version Docker de rkllama existe.
Utilisez le script Bash start.sh
pour installer Node.js et serve
si nécessaire, puis démarrer le serveur web sur un port disponible (affiché même en cas de conflit).
-
Rendez le script exécutable :
chmod +x start.sh
-
Lancez le serveur :
./start.sh
Le script affichera le port utilisé (par exemple,
8080
ou le suivant si occupé). Accédez àhttp://localhost:<port>
pour utiliser le client web.
- Ouvrez
http://localhost:<port>
dans un navigateur. - Interagissez avec rkllama via l’interface web pour exécuter des modèles de langage.
- Consultez la documentation rkllama pour des configurations avancées.
Contributions bienvenues ! Forkez le dépôt, faites vos modifications, et soumettez une pull request.
Sous licence Apache2. Consultez LICENSE pour plus d’informations.