Σήμερα, 4 Ιουνίου 2020, η European Digital Rights (EDRi) δημοσίευσε μία σειρά από έγγραφα αναφορικά με τη νομοθέτηση της Τεχνητής Νοημοσύνης σε επίπεδο Ευρωπαϊκής Ένωσης. Συγκεκριμένα, η EDRi δημοσίευσε τις Προτάσεις της για την νομοθέτηση της Τεχνητής Νοημοσύνης με προσανατολισμό την προστασία των Θεμελιωδών Δικαιωμάτων καθώς επίσης και τα σχόλια και τις παρατηρήσεις της στο πλαίσιο της Ανοιχτής Διαβούλευσης της Ευρωπαϊκής Επιτροπής για τη Λευκή Βίβλο για την Τεχνητή Νοημοσύνη.
Είναι εξαιρετική τιμή για τη Homo Digitalis να συμμετέχει ενεργά στην εκπόνηση των Προτάσεων και να συνεργάζεται με μεγάλες οργανώσεις από όλη την Ευρώπη, όπως οι: Access Now, Article 19, Bits of Freedom, Digitalcourage e.V., IT- Political Association of Denmark, Panoptykon Foundation, Privacy International, Statewatch και Vrijschrift! Δες κάποια πρώτα σχόλια των οργανώσεων που συμμετείχαν, συμπεριλαμβανομένης της Homo Digitalis:
“The development of artificial intelligence technology offers huge potential opportunities for improving our economies and societies, but also extreme risks. Poorly-designed and governed AI will exacerbate power imbalances and inequality, increase discrimination, invade privacy and undermine a whole host of other rights. EU legislation must ensure that cannot happen. Nobody’s rights should be sacrificed on the altar of innovation.” Chris Jones, Statewatch.
“The EU must move beyond technical fixes for the complex problems posed by AI. Instead, the upcoming AI regulation must determine the legal limits, impermissible uses or ‘red-lines’ for AI applications. This is a necessary step for a people-centered, fundamental rights-based AI” Sarah Chander, Senior Policy Adviser, EDRi.
“The EU must ensure that states and companies meet their obligations and responsibilities to respect and promote human rights in the context of automated decision-making systems. EU institutions and national policymakers must explicitly recognise that there are legal limits to the use and impact of automation. No safeguard or remedy would make indiscriminate biometric surveillance or predictive policing acceptable, justified or compatible with human rights” Fanny Hidvegi, Europe Policy Manager, Access Now.
“The deployment of such systems for predictive purposes comes with high risks on human rights violations. Introducing ethical guidelines & standards for the design and deployment of these tools is welcome, but not enough. Instead, we need the European Union and Member States to ensure compliance with the applicable regulatory frameworks, and draw clear legal limits to ensure AI is always compatible with fundamental rights.” Eleftherios Chelioudakis, Homo Digitalis.
“It is crucial for the EU to recognize that the adoption of AI applications is not inevitable. The design, development and deployment of systems must be tested against human rights standards in order to establish their appropriate and acceptable use. Red lines are thus an important piece of the AI governance puzzle. Recognizing impermissible use at the outset is particularly important because of the disproportionate, unequal and sometimes irreversible ways in which automated decision making systems impact societies.” Vidushi Marda, Senior Programme Officer, ARTICLE 19.
Μπορείς να βρεις περισσότερες πληροφορίες σε ένα σύντομο blog με απλή και εύκολα αντιληπτή γλώσσα εδώ.
Τέλος, μπορείς να μάθεις περισσότερες πληροφορίες για την Ανοιχτή Διαβούλευση και τον τρόπο με τον οποίο και εσύ μπορείς να καταθέσεις τα σχόλια και τις απόψεις σου εδώ.