Η χάκινγκ συμμορία CoralRaider στοχεύει την Ασία
10 Απριλίου, 2024Προστατεύστε τα δεδομένα σας από τη χρήση τους για την εκπαίδευση του AI
12 Απριλίου, 2024Πρόσφατες έρευνες αναδεικνύουν κρίσιμες ευπάθειες σε παρόχους υπηρεσιών AI-as-a-Service, όπως το Hugging Face.
Οι ευπάθειες αυτές θα μπορούσαν να επιτρέψουν στους παράγοντες απειλών να κλιμακώσουν τα προνόμια και να αποκτήσουν πρόσβαση σε διακομιστές οποιωνδήποτε χρηστών.
Οι απειλές μπορεί να θέσουν σε κίνδυνο την ασφάλεια των αγωγών CI/CD και να επιτρέψουν την πρόσβαση σε ευαίσθητα δεδομένα μέσω της ανάρτησης κακόβουλων μοντέλων σε μορφή pickle. Η υιοθέτηση ενός κοινού προτύπου ανάληψης ευθυνών και η επαλήθευση των αγωγών CI/CD εμποδίζουν τους χάκερς να εκτελέσουν κακόβουλο κώδικα και να αποκτήσουν ανεπιθύμητη πρόσβαση, προστατεύοντας έτσι την υπηρεσία από πιθανούς κινδύνους.
Οι στρατηγικές μετριασμού περιλαμβάνουν την ενεργοποίηση του IMDSv2 με Hop Limit και την αποφυγή μη αξιόπιστων μοντέλων τεχνητής νοημοσύνης, ιδιαίτερα αυτών σε μορφή pickle, σε περιβάλλοντα παραγωγής. Το Hugging Face έχει αντιμετωπίσει κάποια ζητήματα που εντοπίστηκαν και συνιστά στους χρήστες να χρησιμοποιούν μοντέλα από αξιόπιστες πηγές, να ενεργοποιούν τον έλεγχο ταυτότητας δύο παραγόντων και να αποφεύγουν τη χρήση pickle αρχείων στην παραγωγή. Επίσης, η έρευνα προειδοποιεί για μοντέλα τεχνητής νοημοσύνης που δημιουργούν πακέτα κακόβουλου κώδικα και παρακάμπτουν τις προστασίες ασφαλείας, υπογραμμίζοντας την ανάγκη προσοχής κατά τη χρήση μεγάλων γλωσσικών μοντέλων (LLM).
Το Anthropic εφαρμόζει την τεχνική του “πολυδιακοπής” (multi-tasking) στο jailbreaking, εκμεταλλευόμενο το παράθυρο περιβάλλοντος των LLM για αντιμετώπιση επικίνδυνων ζητημάτων. Επιπλέον, αναδεικνύει τις ανταλλαγές μεταξύ των δυνατοτήτων του μοντέλου και των κινδύνων ασφαλείας.