Gamereactor



  •   Ελληνικά

Σύνδεση μέλους
Gamereactor
Παγκόσμια νέα

Το chatbot AI του Reddit προτείνει στους χρήστες να δοκιμάσουν ηρωίνη

Ίσως λοιπόν να μην του ζητήσετε ιατρική συμβουλή ακόμα.

HQ

Αν ελπίζατε ότι τα chatbots AI θα μπορούσαν να αντικαταστήσουν τον Dr. Google, το τελευταίο πείραμα του Reddit προτείνει... ίσως όχι ακόμα. Το Reddit Answers, ο βοηθός τεχνητής νοημοσύνης της πλατφόρμας, έγινε πρόσφατα πρωτοσέλιδο επειδή συνέστησε την ηρωίνη ως αναλγητικό.

Όπως αναφέρθηκε από το 404Media, η περίεργη συμβουλή ήρθε στο φως όταν ένας εργαζόμενος στον τομέα της υγείας εντόπισε την απάντηση σε ένα subreddit για συντονιστές. Σε μια αλληλεπίδραση, το chatbot έδειξε αυτήν την ανάρτηση: «Η ηρωίνη, κατά ειρωνικό τρόπο, μου έσωσε τη ζωή σε αυτές τις περιπτώσεις».

Σε μια άλλη ερώτηση, πρότεινε ακόμη και το kratom, ένα εκχύλισμα δέντρου που είναι παράνομο σε πολλές χώρες και επισημαίνεται από τον FDA «λόγω του κινδύνου σοβαρών ανεπιθύμητων ενεργειών, συμπεριλαμβανομένης της ηπατικής τοξικότητας, των επιληπτικών κρίσεων και της διαταραχής χρήσης ουσιών».

Το chatbot AI του Reddit προτείνει στους χρήστες να δοκιμάσουν ηρωίνη

Το Reddit Answers δεν είναι το τυπικό AI σας. Αντί να βασίζεται αποκλειστικά σε επιμελημένες βάσεις δεδομένων, αντλεί από την τεράστια δεξαμενή περιεχομένου που δημιουργείται από χρήστες του Reddit. Αυτό το κάνει ιδιόρρυθμο, μερικές φορές διορατικό. Αλλά σαφώς, όχι πάντα ασφαλές.

Αρχικά περιοριζόταν σε ξεχωριστή καρτέλα, το Reddit δοκίμαζε το Answers σε τακτικές συνομιλίες, έτσι το συγκεκριμένο επεισόδιο πέρασε απαρατήρητο... μέχρι τώρα. Αφού το chatbot AI του Reddit προτείνει στους χρήστες να δοκιμάσουν ηρωίνη.

Μετά τη δημοσιοποίηση της έκθεσης, το Reddit απάντησε μειώνοντας την ορατότητα του AI κάτω από ευαίσθητες συνομιλίες που σχετίζονται με την υγεία. Οι συντονιστές δεν είχαν κανέναν έλεγχο στις συμβουλές οι ίδιοι, υπογραμμίζοντας πόσο πειραματικό είναι ακόμα το εργαλείο.

Φυσικά, αυτός δεν είναι ο πρώτος λόξυγκας AI του Reddit. Άλλα ρομπότ όπως οι Επισκοπήσεις AI της Google και το ChatGPT έχουν επίσης παράσχει αμφισβητήσιμες οδηγίες για την υγεία, συμπεριλαμβανομένων «συμβουλών» όπως η χρήση μη τοξικής κόλλας στις πίτσες για να σταματήσει η ολίσθηση του τυριού.

Σαφώς, όταν πρόκειται για ιατρικές συμβουλές, τα AI είναι διασκεδαστικά, αλλά οι άνθρωποι εξακολουθούν να έχουν το πάνω χέρι. Ίσως λοιπόν να μην του ζητήσετε ιατρική συμβουλή ακόμα.

Αυτή η δημοσίευση έχει επισημανθεί ως:

Παγκόσμια νέα


Φόρτωση ακόλουθου περιεχομένου