Freedom of Expression and Artificial Intelligence: On Personalisation, Disinformation and (Lack Of) Horizontal Effect of the Charter

2019 ◽  
Author(s):  
Maja Brkan
2021 ◽  
Vol 44 (3) ◽  
Author(s):  
Andrew Ray

Rapid technological advancement is changing the way that political parties, voters, and media platforms engage with each other. This along with cultural change has led to an emerging era of disinformation and misinformation driven by both domestic and foreign actors. Political deepfakes, videos created through the use of artificial intelligence, allow individuals to rapidly create fake videos indistinguishable from true content. These videos have the capacity to undermine voter trust and could alter electoral outcomes. Regulating disinformation however raises significant free speech concerns, as well as questions about where liability should fall. In particular, holding large technology and media platforms accountable for content could lead to unintended chilling effects around freedom of expression, harming rather than protecting democratic institutions. Proposed regulations should therefore be carefully analysed through the framework of the implied freedom of political communication, ensuring that any new laws are proportionate and tailored to the threat they seek to prevent. This article analyses how current Australian law interacts with political deepfakes and proposes two targeted amendments to our federal electoral regulations to reduce the threat they pose to elections.


Author(s):  
Н. В. Бочарова ◽  
В. М. Шкабаро ◽  
Ю. С. Палєєва

Статтю присвячено аналізу новітніх правозахисних ініціатив Ради Європи щодо правового регулювання в умовах розвитку інформаційних технологій і прискореного технологічного розвитку. Пропонована проблематика досліджується у вітчизняній правничій літературі вперше. Зазначено, що наприкінці 2020 р. в умовах святкування 70-річчя Європейської конвенції про захист прав людини і основоположних свобод у Раді Європи було підготовлено аналітико-прогнос-тичний документ Інформаційне суспільство: Фокус 2021 (Information Society: Focus 2021), в якому сконцентровано принципи подальшого розвитку захисту прав людини в специфічних умовах техно-логічного прогресу та визначено сучасну правову базу, яку створила Рада Європи для юридичного забезпечення правозахисного руху. Серед напрямів захисту прав людини в цифровому середовищі визначено такі: захист свободи висловлення поглядів (Defending Freedom of Expression), посилення цифрового управління (Enhancing Digital Governance), вивчення штучного інтелекту (Exploring Artificial Intelligence), захист конфіденційності (Safeguarding Privacy), боротьба з кіберзлочинністю (Combating Cybercrime). Керівний комітет Ради Європи з питань засобів масової інформації та інформаційного суспільства (Council of Europe Steering Committee on Media and Informational Society – CDMSI) розробляє керівні принципи управління засобами масової інформації та комунікаціями, щоб розв’язати питання про перехід від усталених інформаційних каналів до соціальних мереж і пов’язаних із ними ризиків, серед яких – маніпулювання громадською думкою, брак довіри громадськості, невпорядкованість інформації. Аналізується Стратегія управління Інтернетом на 2016–2019 рр., яка спрямована на забезпечення державної політики в Інтернеті, орієнтованої на людей і сприяння побудові демократії в Інтернеті, захист користувачів Інтернету та забезпечення поваги прав людини. Проблема забезпечення прав людини через використання штучного інтелекту є однією з центральних для сучасної правозахисної діяльності Ради Європи. Для координації зусиль експертного середовища було створено міждисциплінарний спеціальний Комітет із питань штучного інтелекту (Ad-hoc Committee on Artificial Intelligence – CAHAI), до завдань якого входить створення правової бази для розроблення, проєктування та застосування штучного інтелекту на основі стандартів прав людини, демократії та верховенства права. Розглянуто питання модернізації Конвенції про захист фізичних осіб під час автоматизованої обробки персональних даних для адаптації до нових реалій інформаційного суспільства та посилення ефективності її впровадження. Проаналізовані особливості сучасних підходів до забезпечення та захисту прав людини в інформаційному суспільстві повинні враховуватися українським законодавцем під час розроблення норм національної системи захисту.


2019 ◽  
pp. 178-197
Author(s):  
Kyle Dent ◽  
Richelle Dumond ◽  
Mike Kuniavsky

As machine learning and AI systems gain greater capabilities and are deployed more widely, we – as designers, developers, and researchers – must consider both the positive and negative implications of their use. In light of this, PARC’s researchers recognize the need to be vigilant against the potential for harm caused by artificial intelligence through intentional or inadvertent discrimination, unjust treatment, or physical danger that might occur against individuals or groups of people. Because AI-supported and autonomous decision making has the potential for widespread negative personal, social, and environmental effects, we aim to take a proactive stance to uphold human rights, respect individuals’ privacy, protect personal data, and enable freedom of expression and equality. Technology is not inherently neutral and reflects decisions and trade-offs made by the designers, researchers, and engineers developing it and using it in their work. Datasets often reflect historical biases. AI technologies that hire people, evaluate their job performance, deliver their healthcare, and mete out penalties are obvious examples of possible areas for systematic algorithmic errors that result in unfair or unjust treatment. Because nearly all technology includes trade-offs and embodies the values and judgments of the people creating it, it is imperative that researchers are aware of the value judgments they make and are transparent about them with all stakeholders involved.


Data & Policy ◽  
2021 ◽  
Vol 3 ◽  
Author(s):  
Noémi Bontridder ◽  
Yves Poullet

Abstract Artificial intelligence (AI) systems are playing an overarching role in the disinformation phenomenon our world is currently facing. Such systems boost the problem not only by increasing opportunities to create realistic AI-generated fake content, but also, and essentially, by facilitating the dissemination of disinformation to a targeted audience and at scale by malicious stakeholders. This situation entails multiple ethical and human rights concerns, in particular regarding human dignity, autonomy, democracy, and peace. In reaction, other AI systems are developed to detect and moderate disinformation online. Such systems do not escape from ethical and human rights concerns either, especially regarding freedom of expression and information. Having originally started with ascending co-regulation, the European Union (EU) is now heading toward descending co-regulation of the phenomenon. In particular, the Digital Services Act proposal provides for transparency obligations and external audit for very large online platforms’ recommender systems and content moderation. While with this proposal, the Commission focusses on the regulation of content considered as problematic, the EU Parliament and the EU Council call for enhancing access to trustworthy content. In light of our study, we stress that the disinformation problem is mainly caused by the business model of the web that is based on advertising revenues, and that adapting this model would reduce the problem considerably. We also observe that while AI systems are inappropriate to moderate disinformation content online, and even to detect such content, they may be more appropriate to counter the manipulation of the digital ecosystem.


2021 ◽  
pp. 089443932110103
Author(s):  
Mehmet Fatih Sert ◽  
Engin Yıldırım ◽  
İrfan Haşlak

This article draws on an artificial intelligence (AI) technique to predict whether an individual application regarding the Turkish Constitutional Court's public morality and freedom of expression cases leding to a “violation” or a “nonviolation” decision. To this end, four different data sets have been composed, preclassification and fundamental word embeddings steps have been made on each data set. Multilayer perceptron, which is based on artificial neural networks, has been used for the prediction of the case decisions. We have predicted the court’s decisions on these cases with the high success rates (average accuracy of 90%) by using the subject or reasoning sections of texts of the cases as data. The subject section of the cases constituting only a very small part of the data has yielded the highest accuracy. The article has demonstrated that a basic AI technique can be successful in achieving accurate predictions even with relatively small data sets derived from well-structured court rulings.


Author(s):  
David L. Poole ◽  
Alan K. Mackworth

Sign in / Sign up

Export Citation Format

Share Document