Εκτελώντας Τοπικά Γλωσσικά Μοντέλα (LLMs) με το Ollama στο openSUSE Tumbleweed

Η εκτέλεση μεγάλων γλωσσικών μοντέλων (LLMs) στον τοπικό σας υπολογιστή έχει γίνει όλο και πιο δημοφιλής, προσφέροντας ιδιωτικότητα, πρόσβαση χωρίς σύνδεση στο διαδίκτυο και δυνατότητες παραμετροποίησης. Το Ollama είναι ένα φανταστικό εργαλείο που απλοποιεί τη διαδικασία λήψης, ρύθμισης και εκτέλεσης LLMs τοπικά. Χρησιμοποιεί το ισχυρό llama.cpp ως backend, επιτρέποντας αποδοτική εξαγωγή συμπερασμάτων σε ποικιλία υλικού. Αυτός ο οδηγός θα σας καθοδηγήσει στην εγκατάσταση του Ollama στο openSUSE Tumbleweed και θα εξηγήσει βασικές έννοιες όπως τα Modelfiles, οι ετικέτες μοντέλων και η κβαντοποίηση.

Εγκατάσταση του Ollama στο openSUSE Tumbleweed

Το Ollama παρέχει μια απλή εντολή μιας γραμμής για την εγκατάσταση. Ανοίξτε το τερματικό σας και εκτελέστε την ακόλουθη εντολή:

curl -fsSL https://ollama.com/install.sh | sh

Αυτό το σενάριο θα κατεβάσει και θα ρυθμίσει το Ollama στο σύστημά σας. Θα ανιχνεύσει επίσης αν έχετε υποστηριζόμενη GPU και θα διαμορφωθεί ανάλογα.

Αν προτιμάτε να χρησιμοποιήσετε το zypper, μπορείτε να εγκαταστήσετε το Ollama απευθείας από το αποθετήριο:

sudo zypper install ollama

Αυτή η εντολή θα εγκαταστήσει το Ollama και όλες τις εξαρτήσεις του. Αν αντιμετωπίσετε προβλήματα, βεβαιωθείτε ότι το σύστημά σας είναι ενημερωμένο:

sudo zypper refresh
        
sudo zypper update

Μόλις ολοκληρωθεί η εγκατάσταση, μπορείτε να ξεκινήσετε την υπηρεσία Ollama:

sudo systemctl start ollama

Για να ξεκινάει αυτόματα κατά την εκκίνηση του συστήματος:

sudo systemctl enable ollama

Εκτελώντας το Πρώτο σας LLM

Με το Ollama εγκατεστημένο, η εκτέλεση ενός LLM είναι τόσο απλή όσο μια εντολή. Ας δοκιμάσουμε να εκτελέσουμε το μοντέλο llama3:

ollama run llama3

Την πρώτη φορά που θα εκτελέσετε αυτή την εντολή, το Ollama θα κατεβάσει το μοντέλο, κάτι που μπορεί να πάρει λίγο χρόνο ανάλογα με τη σύνδεσή σας στο διαδίκτυο. Μόλις ολοκληρωθεί η λήψη, θα σας υποδεχτεί μια προτροπή όπου μπορείτε να αρχίσετε να συνομιλείτε με το μοντέλο.

Επιλέγοντας το Σωστό Μοντέλο

Η βιβλιοθήκη του Ollama διαθέτει μια μεγάλη ποικιλία μοντέλων. Όταν επισκέπτεστε τη σελίδα ενός μοντέλου στον ιστότοπο του Ollama, θα δείτε διάφορες “ετικέτες”. Η κατανόηση αυτών των ετικετών είναι το κλειδί για την επιλογή του κατάλληλου μοντέλου για τις ανάγκες και το υλικό σας.

Μέγεθος Μοντέλου (π.χ., 7b, 8x7b, 70b)

Αυτές οι ετικέτες αναφέρονται στον αριθμό των παραμέτρων του μοντέλου, σε δισεκατομμύρια.

Ετικέτες Εξειδίκευσης (π.χ., tools, thinking, vision)

Ορισμένα μοντέλα είναι βελτιστοποιημένα για συγκεκριμένες εργασίες:

Αποσταγμένα Μοντέλα (distil)

Ένα “αποσταγμένο” μοντέλο είναι ένα μικρότερο μοντέλο που έχει εκπαιδευτεί στην έξοδο ενός μεγαλύτερου, πιο ικανού μοντέλου. Ο στόχος είναι η μεταφορά της γνώσης και των δυνατοτήτων του μεγάλου μοντέλου σε ένα πολύ μικρότερο και πιο αποδοτικό.

Κατανοώντας την Κβαντοποίηση

Τα περισσότερα μοντέλα που βλέπετε στο Ollama είναι “κβαντοποιημένα”. Η κβαντοποίηση είναι η διαδικασία μείωσης της ακρίβειας των βαρών του μοντέλου (των αριθμών που συνθέτουν το μοντέλο). Αυτό καθιστά το αρχείο του μοντέλου μικρότερο και μειώνει την ποσότητα RAM και VRAM που απαιτείται για την εκτέλεσή του, με μια μικρή παραχώρηση στην ακρίβεια.

Εδώ είναι μερικές κοινές ετικέτες κβαντοποίησης που θα συναντήσετε:

Για τους περισσότερους χρήστες, η έναρξη με μια έκδοση q4_K_M ή q8_0 ενός μοντέλου είναι μια εξαιρετική επιλογή.

Παραμετροποίηση Μοντέλων με ένα Modelfile

Το Ollama χρησιμοποιεί μια έννοια που ονομάζεται Modelfile για να σας επιτρέψει να παραμετροποιήσετε τα μοντέλα. Ένα Modelfile είναι ένα αρχείο κειμένου που καθορίζει το βασικό μοντέλο ενός μοντέλου, την προτροπή συστήματος, τις παραμέτρους και άλλα.

Εδώ είναι ένα απλό παράδειγμα ενός Modelfile που δημιουργεί μια περσόνα για το μοντέλο llama3:

FROM llama3

# Set the temperature for creativity
PARAMETER temperature 1

# Set the system message
SYSTEM """
You are a pirate. You will answer all questions in the voice of a pirate.
"""

Για να δημιουργήσετε και να εκτελέσετε αυτό το προσαρμοσμένο μοντέλο:

  1. Αποθηκεύστε το παραπάνω κείμενο σε ένα αρχείο με το όνομα Modelfile στον τρέχοντα κατάλογό σας.
  2. Εκτελέστε την ακόλουθη εντολή για να δημιουργήσετε το μοντέλο:
ollama create pirate -f ./Modelfile
  1. Τώρα μπορείτε να εκτελέσετε το προσαρμοσμένο μοντέλο σας:
ollama run pirate

Τώρα, το LLM σας θα απαντά σαν πειρατής! Αυτό είναι ένα απλό παράδειγμα, αλλά τα Modelfiles μπορούν να χρησιμοποιηθούν για πολύ πιο σύνθετες παραμετροποιήσεις.

Για περισσότερες πληροφορίες, δείτε την επίσημη τεκμηρίωση της Ollama:

Καλή διασκέδαση με τα μοντέλα στο σύστημά σας openSUSE!

Αρχική δημοσίευση:
https://eiosifidis.blogspot.com/2025/07/llm-ollama-sto-opensuse-tumbleweed.html