Δημοσιεύτηκε: 26 Αύγ 2025, 13:57
από the_eye
Αν θέλετε να δοκιμάσετε και να πειραματιστείτε με το δικό σας Αi LLM τοπικά στο μηχάνημα σας δείτε το ollama.

Αφού το εγκαταστήσετε μπορείτε είτε να το τρέξετε από cli και να το ρωτάτε είτε να κάνετε τα δικά σας προγράμματα και να τα συνδέσετε.

Ένα μοντέλο με καλά ελληνικά είναι το meltemi, το βάζετε με την εντολή
Κώδικας: Επιλογή όλων
ollama run ilsp/meltemi-instruct-v1.5

Αρχικά θα κάνει αρκετή ώρα, γιατί θα κατεβάσει το μοντέλο μετά θα είναι τοπικά.
Οι απαντήσεις θα βγαίνουν τόσο γρήγορα όσο γρήγορο είναι το pc σας.
Θα χρειαστείτε τουλάχιστο 8GB Ram και ένα 4 core pc.

Δείτε περισσότερα εδώ
https://ollama.com/ilsp/meltemi-instruct-v1.5