Η Microsoft διεύρυνε την ομάδα που είναι υπεύθυνη για την ασφάλεια των προϊόντων τεχνητής νοημοσύνης της, αυξάνοντας το προσωπικό της από 350 σε 400 άτομα.
Περισσότερο από το ήμισυ της ομάδας επικεντρώνεται στο έργο αυτό με πλήρη απασχόληση, ανέφερε η εταιρεία σήμερα στην πρώτη ετήσια έκθεση διαφάνειας για την τεχνητή νοημοσύνη, η οποία περιγράφει τα μέτρα που διασφαλίζουν ότι οι υπηρεσίες της αναπτύσσονται με υπευθυνότητα. Τα πρόσθετα μέλη της ομάδας περιλαμβάνουν νέες προσλήψεις καθώς και υφιστάμενους υπαλλήλους.
Πέρυσι, η Microsoft διέλυσε την ομάδα «Ηθική και Κοινωνία» εν μέσω ευρύτερων απολύσεων σε διάφορες εταιρείες, συμπεριλαμβανομένων της Meta Platforms Inc. και της Google της Alphabet Inc.
Η εταιρεία επιθυμεί να ενισχύσει την εμπιστοσύνη στα εργαλεία της δημιουργικής τεχνητής νοημοσύνης εν μέσω αυξανόμενων ανησυχιών σχετικά με την τάση τους να παράγουν παράξενο περιεχόμενο. Τον Φεβρουάριο, η Microsoft διερεύνησε περιστατικά που αφορούσαν το chatbot Copilot, του οποίου οι απαντήσεις κυμαίνονταν από περίεργες έως επιβλαβείς.
«Στη Microsoft, αναγνωρίζουμε το ρόλο μας στη διαμόρφωση αυτής της τεχνολογίας», ανέφερε στην έκθεση η εταιρεία με έδρα το Redmond της Ουάσινγκτον.
Η προσέγγιση της Microsoft για την ασφαλή ανάπτυξη της τεχνητής νοημοσύνης βασίζεται σε ένα πλαίσιο που επινοήθηκε από το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας. Ο οργανισμός, ο οποίος αποτελεί μέρος του υπουργείου Εμπορίου, ανέλαβε τη δημιουργία προτύπων για την αναδυόμενη τεχνολογία στο πλαίσιο εκτελεστικού διατάγματος που εξέδωσε πέρυσι ο πρόεδρος Τζο Μπάιντεν.
Στην εναρκτήρια έκθεσή της, η Microsoft δήλωσε ότι έχει αναπτύξει 30 υπεύθυνα εργαλεία AI, συμπεριλαμβανομένων εκείνων που δυσκολεύουν τους ανθρώπους να ξεγελάσουν τα AI chatbots ώστε να συμπεριφέρονται παράξενα. Οι «ασπίδες προτροπής» της εταιρείας έχουν σχεδιαστεί για να ανιχνεύουν και να εμποδίζουν σκόπιμες προσπάθειες - γνωστές και ως επιθέσεις prompt injection ή jailbreaks - που θέλουν να κάνουν ένα μοντέλο AI να συμπεριφέρεται με μη προβλεπόμενο τρόπο.