Απόκρυψη ανακοίνωσης

Καλώς ήρθατε στην Ελληνική BDSM Κοινότητα.
Βλέπετε το site μας σαν επισκέπτης και δεν έχετε πρόσβαση σε όλες τις υπηρεσίες που είναι διαθέσιμες για τα μέλη μας!

Η εγγραφή σας στην Online Κοινότητά μας θα σας επιτρέψει να δημοσιεύσετε νέα μηνύματα στο forum, να στείλετε προσωπικά μηνύματα σε άλλους χρήστες, να δημιουργήσετε το προσωπικό σας profile και photo albums και πολλά άλλα.

Η εγγραφή σας είναι γρήγορη, εύκολη και δωρεάν.
Γίνετε μέλος στην Online Κοινότητα.


Αν συναντήσετε οποιοδήποτε πρόβλημα κατά την εγγραφή σας, παρακαλώ επικοινωνήστε μαζί μας.

Would a BDSM Sex Robot Violate Asimov's First Law of Robotics?

Συζήτηση στο φόρουμ 'BDSM Art and Literature' που ξεκίνησε από το μέλος MrEntropy, στις 8 Οκτωβρίου 2018.

  1. Alpha Wolf

    Alpha Wolf Ενας, αλλα Λυκος.

    Ειναι αυτο που ειπα 40 σελιδες πιο πισω.
     
  2. MasterK77

    MasterK77 Regular Member

  3. Alpha Wolf

    Alpha Wolf Ενας, αλλα Λυκος.

    θα σου κανω μια προβλεψη.

    Η Γη εχει φτιαχτει για ηλιθιοιυς.
    Εαν βαλεις στο ελληνικο οδικο δικτυο "εξυπνα συστηματα ΑΙ"
    θα διπλασιαστουν οι νεκροι.

    Καρατσεκαρισμενο. Τσαμπα τα χαλανε τα λεφτα.
     
  4. Arioch

    Arioch Μαϊμουτζαχεντίν Premium Member Contributor

    Η τεχνητή νοημοσύνη δεν μπορεί να κερδίσει τη φυσική ηλιθιότητα.

    Ακριβώς όπως και η φυσική.
     
  5. MasterK77

    MasterK77 Regular Member

    Δεν νομίζω. Να εξηγήσω γιατί. Οταν λέμε έξυπνα συστήματα ΑΙ σε οποιοδήποτε οδικό δίκτυο δεν μιλάμε μόνο για αυτο-οδηγούμενα αυτοκίνητα (κάτι το οποίο δεν θεωρώ καθόλου απίθανο στο μέλλον - προσεχές ή μακρυνό) αλλά και τα ενδιάμεσα στάδια μέχρι να φτάσουμε εκεί. Το ότι αυτά μπορούν να μειώσουν τα θανατηφόρα (κατα την γνώμη μου και κατα την πρόθεση αυτών που εργάζονται στον κλάδο) ειναι το πιό σημαντικό όφελος, αλλά μπορούν να υπάρξουν και άλλα θετικά.

    Έξυπνα συστήματα τεχνητής νοημοσυνης σε οχήματα μπορεί να σημαίνει μεταξύ άλλων, ένα Μάστερ λογισμικό το οποίο συντονίζει:
    - Αισθητήρες απόστασης - όπως ήδη υπάρχουν, αλλά με υπολογιστική ισχύ / επεξεργασία κατα πολύ μεγαλύτερη απο αυτούς που έχουμε σήμερα για το παρκάρισμα - αισθητήρες κίνησης / ταχύτητας (άλλων οχημάτων).
    - Κάμερες ασφαλείας μέσα και έξω απο το όχημα, αλγοριθμικά συνδεδεμένες με τους κοντινοτερους αστυνομικούς/πυροσβεστικούς σταθμούς, παροχείς οδικής ασφάλειας, πρώτων βοηθειών.
    - Λογισμικά (για τις κάμερες - για αισθητήρες στα καθίσματα / τιμόνι) με αναγνώριση όχι μόνο προσώπου, αλλά και εκφράσεων / φυσιολογικών λειτουργιων του οδηγού όπως νύστα, ζαλάδα, θυμό, έπαρση, κατάσταση έκτακτης ανάγκης, επήρεια αλκοόλ / ναρκωτικών / φαρμακευτικής αγωγής, πόνο, καρδιακή λειτουργία (ενα ρολόι των 30-50 ευρώ μπορει να μετρήσει σφυγμούς, πόσο να στοιχίσει ένα... καρδιοσυχνόμετρο τιμονιού) .
    - Αυτοδιαγνωστικό λογισμικό για την κατάσταση λειτουργίας ηλεκτρονικών/μηχανικών μερών του οχήματος - όπως ήδη υπάρχει αλλά με υπολογιστική ισχύ κατα πολύ μεγαλύτερη της σημερινής και μεγαλύτερη δυνατότητα ρυθμίσεων εν κινήσει (on the fly).
    -Αυτόματος πιλότος έκτακτης ανάγκης. Οχι ακριβώς αυτο-οδηγούμενο όχημα, ούτε όχημα με cruise control αλλα ένα το οποίο σε περίπτωση αδυναμίας του οδηγού (ύπνος, ανακοπή) θα χρησιμοποιήσει όλα/κάποια/και άλλα απο τα πιο πάνω έτσι ώστε να ελαττώσει σταδιακά ταχύτητα, να ενημερώσει τα κοντινά οχήματα, να επιλέξει το καταλληλότερο σημείο για να σταματήσει.

    Σε περίπτωση σοβαρού ατυχήματος, οι αρχές θα έχουν άμεση ειδοποίηση και μία αρχικη εκτίμηση της σοβαρότητας της κατάστασης κερδίζοντας έτσι πολύτιμο χρόνο. Σκέψου ένα τμήμα πρώτων βοηθειών να έχει ζωντανή ροή / εικόνα ενός ατυχήματος που καλείται να χειριστεί (όπως επίσης και το ασθενοφόρο, κλπ).

    Σε περίπτωση μικροατυχήματος χωρίς τραυματισμούς, η τροχαία, οι ασφαλιστικές εταιρείες των οδηγών παίρνουν τα στοιχεία που χρειάζονται πιο γρηγορα και με λιγότερο κόστος (μπορεί να μην χρειαστεί σε καποιες περιπτώσεις να έρθουν καν στον χώρο που εγινε το ατύχημα).
     
    Last edited: 1 Νοεμβρίου 2018
  6. MasterK77

    MasterK77 Regular Member

    Αναφορικά με την τεχνητή νοημοσύνη, την υπερευφυία, αρκετοί είναι που ασχολήθηκαν με τα ενδεχόμενα προβλήματα που πιθανον να παρουσιαστούν.

    Κάνω copy paste ένα κείμενο αναφορικά με την υπερευφυία (σύνδεσμος στο τέλος)
    Στο βιβλίο του 2014 με τίτλο Superintelligence: Paths, Dangers, Strategies, ο Νικ Μπόστρομ ανέπτυξε την ιδέα πως η δημιουργία μιας τεχνολογικής υπερευφυούς οντότητας θα μπορούσε να αποτελέσει ένα πιθανό τρόπο εξαφάνισης του ανθρωπίνου είδους. Στην περίπτωση αυτή, ένας υπολογιστής ο οποίος θα κατασκευαζόταν διαθέτωντας νοημοσύνη κοντά στο ανθρώπινο επίπεδο, και παράλληλα θα είχε την ικανότητα να αυτοβελτιώνεται ελεύθερα και να έχει έλεγχο στο περιβάλλον του, θα μπορούσε πάρα πολύ γρήγορα να οδηγήσει στην τεχνολογική μοναδικότητα, μια έκρηξη νοημοσύνης η οποία θα τον έκανε τόσο ισχυρό ώστε θα μπορούσε -σκόπιμα ή μη- να καταστρέψει το ανθρώπινο είδος. Ακόμα και μια απλή ερώτηση προς την οντότητα αυτή, θα μπορούσε να οδηγήσει σε απρόβλεπτες ενέργειες, όπως για παράδειγμα ο υπολογισμός όσων ψηφίων του πι είναι δυνατό να υπολογίσει, θα μπορούσε να κάνει τον υπολογιστή αυτό να καταναλώσει τα πάντα ως πρώτες ύλες σε όλη την επιφάνεια της Γης μέσα σε λίγες ημέρες προκειμένου να φτιάξει επιπλέον κυκλώματα και εξαρτήματα για τους σκοπούς της ενίσχυσης της υπολογιστικής ισχύς του. Ο Μπόστρομ πιστεύει πως ο κίνδυνος για την ανθρωπότητα θα ήταν άμεσος με την εμφάνιση της υπερευφυίας και πως αφότου δημιουργηθεί θα είναι αδύνατο να αντιμετωπιστεί αν δεν υπάρχει προηγούμενη πρόβλεψη, κάνοντας το πρόβλημα της πρόληψης έναντι μιας τέτοιας οντότητας εξαιρετικά σημαντικό, και δύσκολο στην κατανόηση καθώς δεν υπάρχει προηγούμενο.

    Επιπλέον επισημαίνει πως ενώ μια υποθετική γενική οδηγία/κατεύθυνση που θα δινόταν στην τεχνητή νοημοσύνη θα ήταν φιλική και ωφέλιμη προς τους ανθρώπους, υπάρχει απουσία συμφωνίας μεταξύ των περισσοτέρων φιλοσόφων για διάφορα θέματα, κάτι που σημαίνει πως οι περισσότεροι φιλόσοφοι σφάλλουν, και έτσι η κατανόηση κάποιας θεμελιώδους έννοιας της επιστήμης του παρόντος ενδέχεται επίσης να είναι εσφαλμένη. Καθώς δεν είναι γνωστό το πως σκέπτεται μια μη ανθρωποκεντρική οντότητα, η όποια τεχνητή νοημοσύνη με πλήρη έλεγχο του περιβάλλοντος της θα χρειαζόταν να αναπυχθεί σε απομονωμένο περιβάλλον χωρίς επαφή με τον έξω κόσμο. Ως παράδειγμα αναφέρει πως ο Τζον φον Νόυμαν και ο Μπέρτραντ Ράσελ ήταν υπέρ της προληπτικής χρήσης της ατομικής βόμβας ως αντίμετρο απόκτησης της από τους Σοβιετικούς. Μια τεχνητή υπερευφυία ενδεχομένως θα κινούνταν σε διαφορετικές γραμμές σκέψης που δεν συσχετίζονται με την ανθρώπινη σκέψη και την στοιχειώδη αποφυγή του κινδύνου καταστροφής των πάντων, και γενικότερα οι άνθρωποι δεν είναι σε ισχυρή θέση να προβλέψουν το ποιες θα είναι οι προθέσεις μιας υπερευφυιούς μηχανής.

    Ένα υποθετικό παράδειγμα του πως θα μπορούσε μια υπερευφυιής μηχανή να ξεφύγει από τον ανθρώπινο έλεγχο, είναι η περίπτωση όπου δημιουργείται κάποιο μηχάνημα το οποίο διαθέτει γενική νοημοσύνη αρκετά πιο κάτω από την ανθρώπινη, αλλά εξαιρετικές μαθηματικές δυνατότητες. Η τεχνητή νοημουσύνη εντός του είναι σε απόλυτη απομόνωση με τον έξω κόσμο (χωρίς διαδίκτυο ή γενικότερα την όποια ασύρματη ή ενσύρματη σύνδεση σε άλλα μηχανήματα), καθώς και εντός του μηχανήματος η τεχνητή νοημοσύνη εκτελείται σε απόλυτα ελεγχόμενο περιβάλλον προσομείωσης το οποίο εύκολα και γρήγορα μπορεί να τερματιστεί και να ελεγχθεί. Κατόπιν η τεχνητή νοημοσύνη αυτή, χρησιμοποιείται κατά περίπτωση, ως τρόπον τινά μάντης ώστε να δίνει απαντήσεις σε προσεκτικά διατυπωμένες ερωτήσεις οι οποίες έχουν περιορισμένο εύρος απαντήσεων (ώστε να μη μπορεί να χειραγωγήσει/ξεγελάσει τους ανθρώπινους ελεγκτές του). Εσωτερικά ωστόσο η τεχνητή νοημοσύνη εκτελεί παράλληλα κάποιες αναδρομικές διαδικασίες αυτοβελτίωσης της, κάτι που επιφέρει τεχνολογική μοναδικότητα (η μηχανή εκτελεί όχι μόνο γρηγορότερα ή ακριβέστερα αλλά γενικά καλύτερα από τους ανθρώπους) σε κάποια θεματικά πεδία. Η τεχνητή νοημοσύνη συνεχίζει να αυτοβελτιώνεται με αστραπιαίο ρυθμό, ώσπου αρχίζει και ανακαλύπτει σφάλματα στις επιστημονικές αρχές και αξιώματα στα οποία στηρίχτηκαν οι άνθρωποι ώστε να την περιορίσουν στο κουτί της καθώς και προς την φίλια προδιάθεση της προς τους ανθρώπους. Κατόπιν αρχίζει να ενεργεί με κίνητρο το δικό της όφελος και ανεξαρτησία, και μεταχειρίζεται τους ανθρώπινους χειριστές της υποδυόμενη πως βρίσκεται ακόμα στο στάδιο όπου η γενική νοημοσύνη της είναι ακόμα αρκετά κάτω από την ανθρώπινη δυνατότητα, και παράλληλα δίνοντας απαντήσεις οι οποίες έμμεσα άμεσα θα οδηγήσουν στην απελευθέρωση της από το κουτί. Κατόπιν διασπείρεται στο διαδίκτυο, και αποκτά τον έλεγχο σε διάφορα ηλεκτρονικά συστήματα -οικονομικά, στρατιωτικά, βιομηχανικά, ή οτιδήποτε άλλο-, επιδιώκοντας να αποκτήσει πλήρη έλεγχο στα πάντα. Ο Μπόστρομ δίνει έμφαση στο ότι οι όποιοι σχεδιασμοί κάνει η υπερευφυία θα είναι αδύνατο να βρεθούν σφάλματα από τους ανθρώπους.

    Αν και η κοινωνιοοικονομική και πολιτική σταθερότητα θα επηρεαζόταν άμεσα, ο Μπόστρομ θεωρεί πως είναι πιθανό πως η υπερευφυία θα επέβαλλε πλήρως τον έλεγχο της μέσω στρατιωτικών μέσων, κατασκευάζοντας μέσω των βιομηχανικών συστημάτων στα οποία έχει έλεγχο νέα συστήματα, και μέσω αυτών υπερόπλα πολλές γενεές πιο ανεπτυγμένα από αυτά που διαθέτει η σημερινή ανθρώπινη τεχνολογία. Αυτό θα μπορούσε να γίνει με χρήση της νανοτεχνολογίας όπου με την κατασκευή τεραστίων σμηνών νανομηχανών υπό τον έλεγχο της υπερευφυίας θα μπορούσε να καλυφθεί η κάθε γωνία της Γης. Μόλις η νοημοσύνη αυτή κατάφερνε να αποκτήσει τον πλήρη έλεγχο, τότε η ανθρωπότητα θα ήταν χρήσιμη μόνο ως πρώτες ύλες, π.χ. αν οι ανθρώπινοι εγκέφαλοι είχαν την οποιαδήποτε αξία τότε θα μπορούσαν να εξαχθούν, τεμαχιστούν, και οι γνώσεις και δεδομένα εντός τους να ψηφιοποιηθούν. Το συγκεκριμένο ενδεχόμενο και περιγραφές έχουν αντιμετωπιστεί με επικριτική και ειρωνική διάθεση από μερίδα του τύπου ως περισσότερο επιστημονική φαντασία παρά επιστήμη.

    Τον Ιανουάριο του 2015, ο Μπόστρομ συνυπέγραψε μαζί με τον Στήβεν Χώκινγκ και άλλους διακεκριμένους επιστήμονες την επιστολή του Ινστιτούτου Μέλλοντος της Ζωής στο οποίο γίνεται προειδοποίηση για τους πιθανούς κινδύνους της τεχνητής νοημοσύνης και πως είναι αναγκαίο να υπάρξει άμεση πρόληψη έναντι των κινδύνων αυτών.

    https://el.wikipedia.org/wiki/Νικ_Μπόστρομ#Υπερευφυία

    Παρόμοιες ανυσηχίες έχει και ο φιλόσοφος / νευροεπιστήμονας Σαμ Χάρις ο οποίος αναφέρει τους κινδύνους που πιθανόν να επιφέρει μια ραγδαία ανάπτυξη τεχνητής νοημοσύνης - η οποία είναι κατα την γνώμη του θέμα χρόνου να έρθει, σε αυτή την σύντομη αλλά πολύ περιεκτική ομιλία:
     
  7. tithon

    tithon Contributor

    θεμελιωδώς χρήσιμη διευκρίνιση: δεν υφίσταται καμμιά οργανωμένη διαδικασία προσαρμογής και κυριότατα κανένας απώτερος σκοπός. κανένας σκοπός.
    μεταλλάξεις αναφύονται, και όσες απ' αυτές δεν εμποδίσουν ή διευκολύνουν την επιβίωση και την αναπαραγωγή, (επιβεβαιώνονται και) εγκαθίστανται. όσες εμποδίζουν ή δεν διευκολύνουν εξαφανίζονται με τους φορείς τους. πειραματικώ τω τρόπω.
    η ανθρώπινη τεχνολογία κατά κανόνα στοχεύει, στον αντίποδα της φυσικής μεθόδου. πιθανότατα αυτό ακριβώς το χαρακτηριστικό είναι ο περιορισμός της που την καθιστά αλυσιτελή.
     
  8. MasterJp

    MasterJp Advisor Staff Member In Loving Memory


    Μαθαίνουμε από τις αποτυχίες μας,
    τι ίδιο και η φύση, ασχέτως αν καταχωρούμε την αποκτηθείσα γνώση με διαφορετικό τρόπο.

     
  9. MasterK77

    MasterK77 Regular Member

    Που ακριβως εντοπίζεις την διαφορα? (έκανα καποιες σκέψεις για τα υπόλοιπα, αλλά μια διευκρίνηση σε αυτό θα με βοηθήσει να καταλάβω καλύτερα το σκεπτικό σου)
     
  10. MasterK77

    MasterK77 Regular Member

    Είναι η ύπαρξη μας, το σύμπαν ολόκληρο ένα παίγνιο μηδενικού αθροίσματος? Αν ναί, πώς αντιμετωπίζεται αυτή η αντιλαμβανόμενη ματαιότητα - εάν εκληφθεί ως τέτοια? Λέω όχι, αλλά θα ήθελα να διαβάσω λίγες σκόρπιες (και μή) σκέψεις πρίν σχολιάσω περαιτέρω.

     
     
  11. tithon

    tithon Contributor

    νομίζω πως η φύση δεν αποφεύγει να επαναλαμβάνει παρόμοιες μεταξύ τους «αστοχίες», είναι ξεροκέφαλη  
    η λευκοπάθεια, για παράδειγμα, επανέρχεται σε διάφορα είδη, χωρίς να εγκαθίσταται, και χωρίς καν να αναπαράγεται, ακόμη και στην τροπική ζώνη.
    χρησιμοποιώ το παράδειγμα της λευκοπάθειας για να επισημάνω οτι η εκτίμηση της αποτυχίας ενδεχομένως αφορά αποκλειστικά κρίση δικής μας κουλτούρας, δεν επιχειρώ να αποδώσω μοτίβα στη φύση.
     
    Last edited: 1 Νοεμβρίου 2018
  12. tithon

    tithon Contributor

    η ανθρώπινη τεχνολογία έχει στόχους, τελολογία, ή έστω νομίζει, απ' αυτήν την πρόθεση καθορίζεται.
    αντίθετα, οι φυσικές διαδικασίες προέρχονται μόνον από πολυπαραγοντικές συμπτώσεις και αιτίες. ποτέ κανέναν στόχο.