Πέμπτη, 14 Μαρτίου 2019

Δημιουργήθηκε Τεχνητή Νοημοσύνη τόσο αναπτυγμένη που γίνεται επικίνδυνη






Ο Κόσμος της Τεχνητής Νοημοσύνης, σύμφωνα με ομάδα επιστημόνων  αρχίζει να γίνεται απειλητικός .

Μια ομάδα επιστημόνων ηλεκτρονικών υπολογιστών, που είχαν υποστηριχθεί από τον Elon Musk, προκάλεσε ανησυχία, καθώς δημιούργησε μια Τεχνητή Νοημοσύνη (ΤΝ), για την οποία υποστηρίζεται ότι είναι πολύ επικίνδυνη για να δοθεί στο κοινό.

Η OpenAI, μια μη κερδοσκοπική οργάνωση με βάση το Σαν Φρανσίσκο, λέει ότι το χαμαιλεοντικό σύστημα πρόβλεψης γλώσσας, το GPT-2, θα κυκλοφορήσει σε περιορισμένο αριθμό, λόγω «ανησυχιών για κακόβουλες εφαρμογές της τεχνολογίας».

Κι αυτό γιατί το μοντέλο, το οποίο παράγει νέες παραγράφους κειμένου με βάση αυτό που του δίνεται να «διαβάσει» είναι μάλλον πολύ καλό σε αυτό που κάνει.

Το σύστημα αυτό δημιουργεί «δείγματα συνθετικού κειμένου πρωτοφανούς ποιότητας», για την οποία οι ερευνητές λένε ότι είναι τόσο προηγμένη και πειστική, ώστε η ΤΝ θα μπορούσε να χρησιμοποιηθεί για να δημιουργήσει ψευδείς ειδήσεις, να υποκριθεί ότι είναι κάποιο πρόσωπο και να ξεγελάσει ανθρώπους στα κοινωνικά δίκτυα.

«Το GPT-2» έχει εκπαιδευτεί για έναν απλό στόχο: να προβλέπει την επόμενη λέξη, καθώς έχουν δοθεί όλες οι προηγούμενες λέξεις μέσα σε κάποιο κείμενο», εξηγεί η ομάδα OpenAI.

Για να τροφοδοτήσουν τη φαντασία της ΤΝ, οι δημιουργοί της εισήγαγαν μια βάση δεδομένων 8.000.000 ιστοσελίδων, τις οποίες έχει απορροφήσει.

Μόλις ολοκληρώθηκε η διαδικασία, η ΤΝ μπορεί να συζητήσει για το θέμα αυτό, καθώς το καταλαβαίνει, και μπορεί να παραγάγει τυχαίες, αλλά πειστικές ανοησίες, οποιοδήποτε κι αν είναι το θέμα.

Οι ερευνητές λένε ότι, όπως δείχνουν τα παραδείγματα, το μοντέλο είναι ικανό να παραγάγει δείγματα που φαίνονται πολύ κοντινά στην ανθρώπινη ποιότητα και δείχνουν συνοχή σε μια ή παραπάνω σελίδα.

«Ωστόσο, έχουμε παρατηρήσει ποικίλους τρόπους αποτυχίας, όπως επαναλαμβανόμενο κείμενο, λεξικές αποτυχίες (π.χ. ορισμένες φορές το μοντέλο γράφει για φωτιές που λαμβάνουν χώρα κάτω από το νερό), και αφύσικη αλλαγή θέματος».

Σύμφωνα με την OpenAI, τα γλωσσικά μοντέλα μπορούν να παραγάγουν κείμενο που μπορεί να χρησιμοποιηθεί τόσο για καλούς όσο και για κακούς σκοπούς.

Πηγή: indeepanalysis.gr


read more