Πράξη για την Τεχνητή Νοημοσύνη: μια θετική νομοθετική εξέλιξη για την προστασία των πολιτών;

Γράφει η Δανάη Σκεύη*

Καθημερινά ερχόμαστε, εκούσια ή ακουσία, σε επαφή με συστήματα τεχνητής νοημοσύνης (ΤΝ) για ποικίλους σκοπούς∙ από την καθαριότητα του σπιτιού με αυτόνομο ρομποτικό βοηθό, την εξυπηρέτηση πελατών με ψηφιακά bots, την αυτοματοποιημένη αξιολόγηση βιογραφικών, μέχρι τη λήψη ασφάλειας ζωής βάσει συστήματος κατάταξης ασφαλειοληπτών. Στις σταδιακά αυξανόμενες περιπτώσεις πρόκλησης σωματικής βλάβης, βλάβης της υγείας, οικονομικής ζημίας, δυσμενούς μεταχείρισης ή άλλης προσβολής της προσωπικότητας, το ερώτημα που προβάλλει επιτακτικό έχει να κάνει με την επαρκή (ή μη) προστασία των πολιτών κατά την επαφή τους με συστήματα ΤΝ.

Μπορούν να εμπιστεύονται οι πολίτες τα συστήματα ΤΝ; Το θέμα είναι πραγματικά εκτενές και δεν μπορεί να δοθεί μια μονοδιάστατη απάντηση. Ενόψει των κανόνων που αναμένονται να τεθούν σε ισχύ σε λίγο καιρό στην Ευρωπαϊκή Ένωση, στο άρθρο σκιαγραφείται μια πρώτη απάντηση μέσα από τις ρυθμίσεις της Πράξης για την Τεχνητή Νοημοσύνη (εν συντομία Πράξη ΤΝ), αφού πρώτα δοθούν μερικές διευκρινίσεις για τη νέα νομοθεσία.

(i) Τι είναι η Πράξη ΤΝ;

Η Πράξη ΤΝ είναι το νομοθετικό πλαίσιο που πρότεινε η Ευρωπαϊκή Επιτροπή για να αντιμετωπίσει «ολιστικά» τα συστήματα τεχνητής νοημοσύνης ώστε να θεωρούνται ασφαλή και αξιόπιστα. Η Πράξη ΤΝ αποτελεί το επιστέγασμα μιας μακριάς νομοθετικής προσπάθειας, κατά την οποία έλαβαν χώρα πολλές διαβουλεύσεις, πολιτικές πιέσεις και αλληλουποχωρήσεις προκειμένου να επιτευχθεί ο πολιτικός στόχος της δημιουργίας ενός οικοσυστήματος εμπιστοσύνης των πολιτών στην τεχνητή νοημοσύνη (ecosystem of trust) και ενός οικοσυστήματος επιχειρηματικής αριστείας στην τεχνητή νοημοσύνη (ecosystem of excellence). Στις 8 Δεκεμβρίου 2023, μετά από έναν τριήμερο μαραθώνιο διαβουλεύσεων, επιτεύχθηκε η πολιτική συμφωνία για το περιεχόμενο της Πράξης ΤΝ. Τα αρμόδια όργανα, δηλαδή το Συμβούλιο της Ε.Ε. και το Ευρωκοινοβούλιο, πέτυχαν συμφωνία πάνω σε εριζόμενα άρθρα και πλέον έχει ανοίξει ο δρόμος για τη νομοτεχνική επεξεργασία του νόμου και την τελική ψήφιση. Μόλις η Πράξη ψηφισθεί, θα χρειαστούν ακόμα δύο χρόνια για να αποτελέσει δεσμευτικό δίκαιο.

(ii) Σε ποιους απευθύνεται η Πράξη ΤΝ;

Η Πράξη ΤΝ επιβάλλει κανόνες για την ανάπτυξη, κυκλοφορία και χρήση συστημάτων ΤΝ στην Ευρωπαϊκή αγορά. Οι κανόνες απευθύνονται σε όλα τα πρόσωπα που συμμετέχουν στην αλυσίδα αξίας (AI value chain), δηλαδή στα πρόσωπα που είναι υπεύθυνα για την ανάπτυξη, εμπορία, εισαγωγή, διανομή και χρήση συστημάτων ΤΝ, αποκαλούμενα εν συνόλω «φορείς εκμετάλλευσης». Ακριβώς επειδή ο στόχος είναι η Πράξη να ρυθμίσει την ανάπτυξη και εποπτεία των συστημάτων, οι κανόνες επιβάλλονται στους φορείς εκμετάλλευσης επειδή αυτοί έχουν τον έλεγχο των συστημάτων καθόλη τη διάρκεια του κύκλου ζωής τους (AI lifecycle).

(iii) Ποια η προστασία των πολιτών βάσει της Πράξης ΤΝ;

Το ότι οι κανόνες της Πράξης ΤΝ στοχεύουν να ρυθμίσουν τις υποχρεώσεις των φορέων εκμετάλλευσης δεν σημαίνει ότι το νέο νομοθετικό πλαίσιο είναι μικρής σημασίας για πολίτες. Παραμένει εξαιρετικά σημαντικό να υπάρξει εξοικείωση με τις καινούργιες ρυθμίσεις. Τούτο διότι οι πολίτες είναι, εν τέλει,  οι τελικοί αποδέκτες που θα κάνουν χρήση όλων αυτών των καινούργιων εφαρμογών. Αν κάποιος φορέας εκμετάλλευσης δεν συμμορφώνεται πλήρως με τις υποχρεώσεις ασφάλειας ή δεν εποπτεύει επαρκώς το σύστημα που αναπτύσσει, οι τελικά ζημιωθέντες – ηθικά και υλικά –  θα είναι όσοι πολίτες έλθουν σε επαφή με το εν λόγω σύστημα. Κατά δεύτερον, με το να γνωρίζουν οι πολίτες τις υποχρεώσεις των φορέων εκμετάλλευσης θα είναι προετοιμασμένοι για τα χαρακτηριστικά που αναμένουν να δουν κατά την αγορά ή με άλλο τρόπο επαφή με συστήματα ΤΝ. Θα γνωρίζουν και άρα θα μπορούν να ασκήσουν αποτελεσματικά τα δικαιώματα τους, τα οποία θα βασίζουν είτε στην Πράξη ΤΝ (ανάλογα με το τελικό της περιεχόμενο), είτε σε συναφείς προστατευτικούς νόμους όπως τον Γενικό Κανονισμό Προστασίας Προσωπικών Δεδομένων (ΓΚΠΔ) και τους νόμους που παρέχουν αποζημίωση για την πρόκληση ζημίας (άρθρο 6 Ν. 2251/1994, ΑΚ 914 επ.).

Τούτων λεχθέντων, ποιες είναι οι σημαντικότερες ρυθμίσεις της Πράξης ΤΝ;

  1. Απαγορεύσεις: Η Πράξη ΤΝ απαγορεύει εντελώς ορισμένες πρακτικές οι οποίες αντίκεινται στις κοινές Ευρωπαϊκές αξίες. Έτσι, απαγορεύονται συστήματα που απευθύνονται στο υποσυνείδητο των ανθρώπων και συστήματα που εκμεταλλεύονται τρωτά σημεία ευάλωτων ομάδων, όπως των παιδιών και των ηλικιωμένων. Ακόμη, απαγορεύονται  πρακτικές που προβαίνουν σε κοινωνική ταξινόμηση των πολιτών (socialscoring) και πρακτικές βιομετρικής ταυτοποίησης προσώπων (biometrical identification). Ωστόσο, οι τελευταίες απαγορεύσεις δεν θα είναι απόλυτες, αφού προβλέπονται εξαιρέσεις όπως, για παράδειγμα, η βιομετρική ταυτοποίηση σε δημόσιους χώρους για τη διακρίβωση βαρύτατων αδικημάτων (π.χ. τρομοκρατία).
  2. Υποχρεώσεις για συστήματα υψηλού κινδύνου: Η Πράξη ΤΝ επιβάλλει ένα πλέγμα εκτενών υποχρεώσεων στους φορείς εκμετάλλευσης που αναπτύσσουν αρκετά επικίνδυνα συστήματα (high-riskAIsystems). Περιληπτικά, επιβάλλονται υποχρεώσεις διενέργειας εκτίμησης επιπτώσεων στα θεμελιώδη δικαιώματα, διαχείρισης κινδύνου, διακυβέρνησης δεδομένων, τήρησης διαφάνειας, πληροφόρησης χρηστών, ανθρώπινης εποπτείας, τεχνικής ασφάλειας καθώς και άλλες υποχρεώσεις που εξειδικεύονται σε επιμέρους άρθρα της Πράξης.
  3. Υποχρεώσεις για συστήματα γενικού σκοπού και για μοντέλα θεμελίωσης: Νομοθετικό «πονοκέφαλο» έχει προκαλέσει η εμπορική κυκλοφορία συστημάτων που χρησιμοποιούνται για πολλαπλούς σκοπούς και τα οποία μπορεί να ενσωματώνονται σε άλλα συστήματα υψηλού κινδύνου [general-purposeAI (GPAI) systems], με αποτέλεσμα να εμφανίζουν διαφοροποιημένους – και όχι μονοδιάστατους – κινδύνους. Παρόμοιο προβληματισμό έχουν προκαλέσει και τα λεγόμενα μοντέλα θεμελίωσης (foundationmodels), δηλαδή μεγάλα συστήματα ικανά να εκτελούν με επάρκεια ένα ευρύ φάσμα διακριτών εργασιών, όπως το γνωστό πλέον παράδειγμα του ChatGPT. Το τελικό κείμενο της Πράξης αναμένεται να περιέχει υποχρεώσεις διαφάνειας για αυτά τα συστήματα προτού διατεθούν στην αγορά, αλλά και πιο αυστηρούς κανόνες για τα μοντέλα θεμελίωσης με υψηλό αντίκτυπο (high impact) που μπορούν να διαδίδουν συστημικούς κινδύνους κατά μήκος της αλυσίδας αξίας [1].

 

(iv) Πώς αποτιμάται η Πράξη ΤΝ σε σχέση με την προστασία των πολιτών;

Η Πράξη ΤΝ αποτελεί σίγουρα μια θετική νομοθετική εξέλιξη για την κοινή Ευρωπαϊκή αγορά. Αν μάλιστα ανατρέξουμε στις πρωτοβουλίες που έχουν λάβει χώρα παγκοσμίως για τη ρύθμιση της τεχνητής νοημοσύνης θα διαπιστώσουμε ότι η Ε.Ε. είναι η πρώτη χώρα – ή κατ’ ακριβολογία δικαιοδοσία – που θα ψηφίσει δεσμευτικούς κανόνες για την τεχνητή νοημοσύνη καθορίζοντας την «τύχη» 440 εκατομμύρια πολιτών. Η Ε.Ε. έχει, αναμφίβολα, δείξει αποφασιστικότητα σε σύγκριση με άλλες ηγέτιδες χώρες στην τεχνητή νοημοσύνη, όπως οι ΗΠΑ και η Κίνα, με το να απαγορεύσει ρητά ορισμένες αμφιλεγόμενες πρακτικές και να επιβάλλει ένα διαφοροποιημένο πλέγμα κανόνων βάσει του κινδύνου που προκαλούν τα συστήματα ΤΝ. Φαίνεται να αξιοποιεί την ήπια δύναμη (soft power) που διαθέτει στον τομέα της ρύθμισης, λειτουργώντας ως ρυθμιστική κοιτίδα για τρίτες χώρες και αγορές.

Απεναντίας, όταν η συζήτηση στρέφεται στην προστασία των πολιτών, η Πράξη ΤΝ θα πρέπει να αξιολογηθεί υπό το φως της επαρκούς (ή μη) προστασίας των δικαιωμάτων των πολιτών. Σχετικά με αυτό το ζήτημα, οι ενώσεις καταναλωτών έχουν εκφραστεί με επιφυλάξεις. Η Ursula Pachl, αναπληρώτρια γενική διευθύντρια της Ευρωπαϊκής Οργάνωσης Καταναλωτών (BEUC), τον Δεκέμβριο 2023 δήλωσε: «Ο νόμος για την τεχνητή νοημοσύνη περιέχει τόσο καλά όσο και κακά σημεία, αλλά συνολικά τα μέτρα για την προστασία των καταναλωτών δεν είναι ικανοποιητικά […] Πάρα πολλά ζητήματα έχουν αφεθεί υπορυθμιζόμενα, με υπερβολική εξάρτηση από την καλή θέληση των εταιρειών για αυτορρύθμιση. Για παράδειγμα, οι εικονικοί βοηθοί ή τα παιχνίδια που λειτουργούν με τεχνητή νοημοσύνη δεν θα ρυθμιστούν επαρκώς, καθώς δεν θεωρούνται συστήματα υψηλού κινδύνου. Επίσης, συστήματα όπως το ChatGPT ή το Bard δεν θα αποκτήσουν τις προστατευτικές δικλείδες που απαιτούνται για να τα εμπιστευτούν οι καταναλωτές. Υπάρχουν, ωστόσο, ορισμένες σημαντικές διατάξεις που θα επιτρέψουν στους καταναλωτές να αναλάβουν δράση εάν έχουν υποστεί αθέμιτη μεταχείριση ή έχουν υποστεί ζημία» [2].

Συνοψίζοντας, αν και φαίνεται ότι η Πράξη ΤΝ αποτελεί θετική εξέλιξη για την προστασία των πολιτών θα ήταν μάλλον βιαστική η οριστική απάντηση στο ερώτημα του τίτλου. Η κρίση για την επάρκεια (ή μη) του ρυθμιστικού πλαισίου θα περάσει από τριπλή βάσανο. Πρώτον, αναμένουμε την τελική μορφή της Πράξης ΤΝ για την αξιολόγηση των αλλαγών που έχουν μεσολαβήσει από τη στιγμή της αρχικής πρότασης τον Απρίλιο 2021 μέχρι την τελική ψήφιση. Δεύτερον, ελλείψεις προστασίας ενδεχομένως να μπορεί επιλυθούν από τη λοιπή προστατευτική νομοθεσία, κυρίως το δίκαιο προστασίας καταναλωτή, προστασίας προσωπικών δεδομένων και αστικής ευθύνης, τα οποία θα κληθούν να καλύψουν – στο βαθμό του εφικτού – τυχόν ελλείψεις. Τρίτον, η προστασία των πολιτών θα εξαρτηθεί και από την έκταση και την αποτελεσματική εποπτεία της αγοράς συστημάτων ΤΝ από τις Αρχές. Στο μέτρο που ο ρόλος των εποπτικών Αρχών θα είναι περιορισμένος, θα πρέπει οι πολίτες να εξοπλιστούν με επαρκή δικαιώματα για να καλυφθεί το έλλειμμα προστασίας που θα δημιουργηθεί.

 

[1]Council of Europe, Press Release 986/23, Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world, 9/12/2023; European Parliament, Press Release, 20231206IPR15699, Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI, 9/12/2023.

[2]The European Consumer Organization (BEUC),  BEUC-PR-2023-057, EU rules on AI lack punch to sufficiently protect consumers, 9/12/2023

*Η Δανάη Σκεύη είναι Υποψήφια Διδάκτορας της Νομικής Σχολής του Εθνικού Καποδιστριακού Πανεπιστημίου Αθηνών.


Ετοιμάσαμε ένα εύληπτο Infographic για τις εξελίξεις στις τριμερείς διασκέψεις της AI Act

Πώς εξελίσσονται οι τριμερείς διασκέψεις στο πλαίσιο της υιοθέτησης της προτεινόμενης νομοθεσίας της ΕΕ για την Τεχνητή Νοημοσύνη;

Μαζί με την European Digital Rights και άλλες σημαντικές οργανώσεις της κοινωνίας των πολιτών με τις οποίες συνεργαζόμαστε στενά τα τελευταία χρόνια σε αυτόν το νομοθετικό φάκελο ετοιμάσαμε ένα γραφικό για να αναδείξουμε που βρισκόμαστε με την ικανοποίηση των αιτημάτων μας για την προστασία των Δικαιωμάτων του Ανθρώπου.

Έχουμε επιτύχει σημαντικές βελτιώσεις, αλλά δυστυχώς υπάρχουν ακόμα πολλές διατάξεις που δεν ικανοποιούν τα αιτήματά μας. Μπορείς να διαβάσεις περισσότερα στη σχετική εδώ.

 


Συναντηθήκαμε με το Υπουργείο Ψηφιακής Διακυβέρνησης για την DSA και την ΑΙ Act

Σήμερα, η Λαμπρινή Γυφτοκώστα και ο Κωνσταντίνος Κακαβούλης εκπροσώπησαν τη Homo Digitalis σε συνάντηση με εκπροσώπους του Υπουργείου Ψηφιακής Διακυβέρνησης.
Το θέμα της συζήτησης ήταν η πρόοδος της μεταφοράς του Κανονισμού για τις ψηφιακές υπηρεσίες (DSA) στην ελληνική έννομη τάξη, καθώς και η ρύθμιση της Τεχνητής Νοημοσύνης στην Ευρωπαϊκή Ένωση.

Ευχαριστούμε θερμά τους εκπροσώπους του Υπουργείου για τον πολύ γόνιμο διάλογο! Συνεχίζουμε να παρακολουθούμε τις εξελίξεις και να συμμετέχουμε ενεργά στη συνδιαμόρφωσή τους.

 


Συμμετοχή της Homo Digitalis σε συνάντηση του LSE στη Λουμπλιάνα

Την Παρασκευή 20 Οκτωβρίου, η Ηοmo Digitalis ήταν προσκεκλημένη του JET Table του The London School of Economics and Political Science (LSE) σε ένα σημαντικό workshop που έλαβε χώρα στην Λιουμπλιάνα της Σλοβενίας!

Εκεί παρουσιάσαμε τις δράσεις μας κατά της χρήσης παρεμβατικών νέων τεχνολογιών τεχνητής νοημοσύνης στον τομέα της αστυνόμευσης και της διαχείρισης συνόρων στην Ελλάδα τα τελευταία 5 χρόνια, και ενημερώσαμε τις οργανώσεις της κοινωνίας των πολιτών που συμμετείχαν για τα σημαντικά εργαλεία που παρέχει η νομοθεσία προστασίας προσωπικών δεδομένων σχετικά.

Το κοινό έδειξε το έντονο ενδιαφέρον και τον θαυμασμό του για τα όσα έχουμε καταφέρει εντελώς εθελοντικά στο παρελθόν, αλλά δεν έκρυψε και τον προβληματισμό του για τις μεγάλες καθυστερήσεις στην λήψη σχετικών αποφάσεων από την Ελληνική Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα.

Τη Ηοmo Digitalis εκπροσώπησε στο workshop ο Γραμματέας του ΔΣ μας, Ελευθέριος Χελιουδάκης.

 


H Ηomo Digitalis συμμετέχει σε συνάντηση του Πανεπιστημίου της Νέας Υόρκης για την Τεχνητή Νοημοσύνη

Την περασμένη εβδομάδα, η Homo Digitalis προσκλήθηκε να συμμετάσχει στη στρατηγικού χαρακτήρα συνάντηση “Co-creating a shared human-rights agenda for AI regulation and the digital welfare state”, που διοργανώθηκε από το Κέντρο Ανθρωπίνων Δικαιωμάτων και Παγκόσμιας Δικαιοσύνης του Νομικού Τμήματος του Πανεπιστημίου της Νέας Υόρκης και το Εργαστήριο Αλγοριθμικής Λογοδοσίας της Διεθνούς Αμνηστίας (Amnesty Tech)!

Είναι πάντα μεγάλη τιμή να βλέπουμε το έργο μας για την προώθηση και την προστασία των ανθρωπίνων δικαιωμάτων να αναγνωρίζεται σε διεθνές επίπεδο, ενώ απολαύσαμε πολύ την ανταλλαγή ιδεών, τεχνογνωσίας και γνώσεων με μια καταπληκτική ομάδα ακαδημαϊκών, οργανώσεων της κοινωνίας των πολιτών και άλλων ενδιαφερόμενων φορέων σε όλο τον κόσμο.

⚡ Η ομάδα μας εκπροσωπήθηκε στη Σύνοδο Στρατηγικής από τον Γραμματέα του ΔΣ Ελευθέριο Χελιουδάκη. Μείνετε συντονισμένοι για περισσότερες συναρπαστικές συνεργασίες!

 


Αίτημα Συνάντησης στο Υπ. Ψηφιακής Διακυβέρνησης για την AI ACT

Την Παρασκευή 29/9, η Homo Digitalis απηύθυνε αίτημα συνάντησης ενώπιον του Υπουργού Ψηφιακής Διακυβέρνησης, κ. Δημήτρη Παπαστεργίου, στο πλαίσιο των τριμερών διαπραγματεύσεων που λαμβάνουν χώρα σε επίπεδο ΕΕ για την υιοθέτηση της προτεινόμενης Πράξης για την Τεχνητή Νοημοσύνη. Στo αίτημα συνάντησης που απευθύναμε προς τον κ. Υπουργό, επισυνάπτουμε και μία μονοσέλιδη τοποθέτηση, στην οποία παραθέτουμε συνοπτικά τα συγκεκριμένα θέματα που θέλουμε να συζητήσουμε εκτενέστερα μαζί του.

Στόχος μας είναι να εκθέσουμε στον κ. Υπουργό και στην εκπροσώπηση της Ελληνικής Κυβέρνησης σε επίπεδο Συμβουλίου ΕΕ πιο αναλυτικά τις απόψεις μας επί των προτεινόμενων διατάξεων καθώς και να μάθουμε περισσότερα για τις θέσεις της Ελλάδας στις τριμερείς διαβουλεύσεις που ήδη λαμβάνουν χώρα.

 


Καλούμε τους ευρωπαίους νομοθέτες να διασφαλίσουν πλήρη συνέπεια με τις αρχές του Κράτους Δικαίου στην AI ACT

Συνεχίζουμε τις δράσεις συνδιαμόρφωσης πολιτικών αποφάσεων σε ευρωπαϊκό επίπεδο για τον προτεινόμενο ευρωπαϊκό κανονισμό για την Τεχνητή Νοημοσύνη (AIAct)!

Μαζί με τις Civil Liberties Union for EuropeEuropean Center for Not-for-Profit Law StichtingEuropean Civic Forum και άλλες 60 οργανώσεις της ΚτΠ καλούμε τους νομοθέτες σε επίπεδο ΕΕ να διασφαλίσουν ότι οι προτεινόμενες διατάξεις βρίσκονται σε πλήρη συνέπεια με τις αρχές του Κράτους Δικαίου, συμπεριλαμβανομένης της διαφάνειας, της λογοδοσίας και της πρόσβασης στη δικαιοσύνη. Μπορείτε να διαβάσετε τη κοινή μας επιστολή εδώ.

Έρχονται δράσεις και σε εθνικό επίπεδο!

 


Απαιτούμε να σταματήσει η χρήση τεχνολογιών μαζικής βιομετρικής παρακολούθησης από αρχές επιβολής του νόμου σε δημόσιους χώρους

Σήμερα, 120 οργανώσεις της Κοινωνίας των Πολιτών και 60 ακαδημαϊκοί, επιστήμονες και άλλοι ειδικοί σε ζητήματα νέων τεχνολογιών ενώνουν τις φωνές τους προκειμένου να σταματήσει η χρήση τεχνολογιών μαζικής βιομετρικής παρακολούθησης από αρχές επιβολής του νόμου σε δημόσιους χώρους.

Είναι μεγάλη τιμή για τη Homo Digitalis να συμμετέχει σε αυτή την πρωτοβουλία. Ήδη από το 2020 με την European Digital Rights συμμετέχουμε στην εκστρατεία #ReclaimYourFace, στο πλαίσιο της οποίας περισσότεροι από 250.000 άνθρωποι σε όλη την ΕΕ υπέγραψαν το αίτημά μας για την απαγόρευση των εν λόγω πρακτικών.

Μπορείτε να διαβάσετε τη κοινή ανακοίνωση εδώ.

 


Εκφράζουμε τις ανησυχίες μας για το Άρθρο 6 της προτεινόμενης νομοθεσίας για την Τεχνητή Νοημοσύνη

Καθώς η Ευρωπαϊκή Ένωση εισέρχεται στο τελικό στάδιο των τριμερών διαπραγματεύσεων για την προτεινόμενη νομοθεσία για την Τεχνητή Νοημοσύνη, περισσότερες από 150 οργανώσεις της κοινωνίας των πολιτών, συμπεριλαμβανομένης της Homo Digitalis, ανησυχούν για ένα σημαντικό παραθυράκι αναφορικά με τη διαδικασία ταξινόμησης συστημάτων υψηλού κινδύνου στο Άρθρο 6!

Οι μεγάλες εταιρίες τεχνολογίας κατάφεραν να πείσουν το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο να υιοθετήσουν προτεινόμενες διατάξεις που ουσιαστικά τις αφήνουν να αποφασίζουν οι ίδιες αν το σύστημα που αναπτύσσουν θα πρέπει να θεωρείται “υψηλού κινδύνου” ή όχι!

Διάβασε τη κοινή μας δήλωση για να μάθεις περισσότερα για τις προκλήσεις που ανακύπτουν εδώ.