Этика искусственного интеллекта
Часть серии о |
Искусственный интеллект |
---|
![]() |
Этика . искусственного интеллекта охватывает широкий спектр тем в этой области, которые, как считается, имеют особые этические интересы [1] Сюда входят алгоритмические предвзятости , справедливость , автоматическое принятие решений , подотчетность , конфиденциальность и регулирование .
Он также охватывает различные возникающие или потенциальные будущие проблемы, такие как машинная этика (как создавать машины, которые ведут себя этично), смертоносные автономные системы оружия , гонки вооружений динамика , безопасность и согласованность ИИ , технологическая безработица с помощью ИИ , дезинформация , как обращаться с определенными ИИ. системы, если они имеют моральный статус (благосостояние и права ИИ), искусственный сверхинтеллект и экзистенциальные риски . [1]
также могут иметь особенно важные этические последствия. Некоторые области применения, такие как здравоохранение , образование, уголовное правосудие или вооруженные силы,
Машинная этика
Machine ethics (or machine morality) is the field of research concerned with designing Artificial Moral Agents (AMAs), robots or artificially intelligent computers that behave morally or as though moral.[2][3][4][5] To account for the nature of these agents, it has been suggested to consider certain philosophical ideas, like the standard characterizations of agency, rational agency, moral agency, and artificial agency, which are related to the concept of AMAs.[6]
There are discussions on creating tests to see if an AI is capable of making ethical decisions. Alan Winfield concludes that the Turing test is flawed and the requirement for an AI to pass the test is too low.[7] A proposed alternative test is one called the Ethical Turing Test, which would improve on the current test by having multiple judges decide if the AI's decision is ethical or unethical.[7] Neuromorphic AI could be one way to create morally capable robots, as it aims to process information similarly to humans, nonlinearly and with millions of interconnected artificial neurons.[8] Similarly, whole-brain emulation (scanning a brain and simulating it on digital hardware) could also in principle lead to human-like robots, thus capable of moral actions.[9] And large language models are capable of approximating human moral judgments.[10] Inevitably, this raises the question of the environment in which such robots would learn about the world and whose morality they would inherit – or if they end up developing human 'weaknesses' as well: selfishness, pro-survival attitudes, inconsistency, scale insensitivity, etc.
In Moral Machines: Teaching Robots Right from Wrong,[11] Wendell Wallach and Colin Allen conclude that attempts to teach robots right from wrong will likely advance understanding of human ethics by motivating humans to address gaps in modern normative theory and by providing a platform for experimental investigation. As one example, it has introduced normative ethicists to the controversial issue of which specific learning algorithms to use in machines. For simple decisions, Nick Bostrom and Eliezer Yudkowsky have argued that decision trees (such as ID3) are more transparent than neural networks and genetic algorithms,[12] while Chris Santos-Lang argued in favor of machine learning on the grounds that the norms of any age must be allowed to change and that natural failure to fully satisfy these particular norms has been essential in making humans less vulnerable to criminal "hackers".[13]
Robot ethics[edit]
The term "robot ethics" (sometimes "roboethics") refers to the morality of how humans design, construct, use and treat robots.[14] Robot ethics intersect with the ethics of AI. Robots are physical machines whereas AI can be only software.[15] Not all robots function through AI systems and not all AI systems are robots. Robot ethics considers how machines may be used to harm or benefit humans, their impact on individual autonomy, and their effects on social justice.
Ethical principles[edit]
In the review of 84[16] ethics guidelines for AI, 11 clusters of principles were found: transparency, justice and fairness, non-maleficence, responsibility, privacy, beneficence, freedom and autonomy, trust, sustainability, dignity, solidarity.[16]
Luciano Floridi and Josh Cowls created an ethical framework of AI principles set by four principles of bioethics (beneficence, non-maleficence, autonomy and justice) and an additional AI enabling principle – explicability.[17]
Current challenges[edit]
Algorithmic biases[edit]
AI has become increasingly inherent in facial and voice recognition systems. Some of these systems have real business applications and directly impact people. These systems are vulnerable to biases and errors introduced by its human creators. Also, the data used to train these AI systems itself can have biases.[18][19][20][21] For instance, facial recognition algorithms made by Microsoft, IBM and Face++ all had biases when it came to detecting people's gender;[22] these AI systems were able to detect gender of white men more accurately than gender of darker skin men. Further, a 2020 study reviewed voice recognition systems from Amazon, Apple, Google, IBM, and Microsoft found that they have higher error rates when transcribing black people's voices than white people's.[23]
Bias can creep into algorithms in many ways. The most predominant view on how bias is introduced into AI systems is that it is embedded within the historical data used to train the system.[24] For instance, Amazon terminated their use of AI hiring and recruitment because the algorithm favored male candidates over female ones. This was because Amazon's system was trained with data collected over 10-year period that came mostly from male candidates. The algorithms learned the (biased) pattern from the historical data and generated predictions for the present/future that these types of candidates are most likely to succeed in getting the job. Therefore, the recruitment decisions made by the AI system turned out to be biased against female and minority candidates.[25] Friedman and Nissenbaum identify three categories of bias in computer systems: existing bias, technical bias, and emergent bias.[26] In natural language processing, problems can arise from the text corpus — the source material the algorithm uses to learn about the relationships between different words.[27]
Large companies such as IBM, Google, etc. that provide significant funding for research and development,[28] have made efforts to research and address these biases.[29][30][31] One solution for addressing bias is to create documentation for the data used to train AI systems.[32][33] Process mining can be an important tool for organizations to achieve compliance with proposed AI regulations by identifying errors, monitoring processes, identifying potential root causes for improper execution, and other functions.[34]
The problem of bias in machine learning is likely to become more significant as the technology spreads to critical areas like medicine and law, and as more people without a deep technical understanding are tasked with deploying it.[35] There are some open-sourced tools[36] that are looking to bring more awareness to AI biases. There are however some limitations to the current landscape of fairness in AI, due e.g. to the intrinsic ambiguities in the concept of discrimination, both at philosophical and legal level.[37][38][39]
AI is also being incorporated into the hiring processes for almost every major company. There are many examples of certain characteristics that the AI is less likely to choose. Including the association between typically white names being more qualified, and the exclusion of anyone who went to a women's college.[40] Facial recognition is also proven to be highly biased against those with darker skin tones. AI systems may be less accurate for black people, as was the case in the development of an AI-based pulse oximeter that overestimated blood oxygen levels in patients with darker skin, causing issues with their hypoxia treatment.[41] The word Muslims is shown to be more highly associated with violence than any other religions. Oftentimes being able to easily detect the faces of white people while being unable to register the faces of people who are black. This is even more disconcerting considering the unproportionate use of security cameras and surveillance in communities that have high percentages of black or brown people. This fact has even been acknowledged in some states and led to the ban of police usage of AI materials or software. Even within the justice system AI has been proven to have biases against black people, labeling black court participants as high risk at a much larger rate then white participants. Often AI struggles to determine racial slurs and when they need to be censored. It struggles to determine when certain words are being used as a slur and when it is being used culturally.[42] The reason for these biases is that AI pulls information from across the internet to influence its responses in each situation. A good example of this being if a facial recognition system was only tested on people who were white then it would only have the data and face scans of white people making it much harder for it to interpret the facial structure and tones of other races and ethnicities. To stop these biases there is not one single answer that can be used. The most useful approach has seemed to be the use of data scientists, ethicists and other policymakers to improve AI's problems with biases. Oftentimes the reasons for biases within AI is the data behind the program rather than the algorithm of the bot itself. AI's information is often pulled from past human decisions or inequalities that can lead to biases in the decision-making processes for that bot.[43]
Injustice in the use of AI will be much harder to eliminate within healthcare systems, as oftentimes diseases and conditions can affect different races and genders differently. This can lead to confusion as the AI may be making decisions based on statistics showing that one patient is more likely to have problems due to their gender or race.[44] This can be perceived as a bias because each patient is a different case and AI is making decisions based on what it is programmed to group that individual into. This leads to a discussion about what is considered a biased decision on who receives what treatment. While it is known that there are differences in how diseases and injuries affect different genders and races, there is a discussion on whether it is fairer to incorporate this into healthcare treatments, or to examine each patient without this knowledge. In modern society there are already certain tests for diseases, such as breast cancer, that are recommended to certain groups of people over others because they are more likely to contract the disease in question. If AI implements these statistics and applies them to each patient, it could be considered biased.[45]
Examples of AI being proven to have bias include when the system used to predict which defendants would be more likely to commit crimes in the future, COMPAS, was found to predict higher risk values for black people than what their actual risk was. Another example being within Google's ads which targeted men with higher paying jobs and women with lower paying jobs. It can be hard to detect AI biases within an algorithm as often it is not linked to the actual words associated with bias but rather words that biases can be affected by. An example of this being a person's residential area which can be used to link them to a certain group. This can lead to problems as oftentimes businesses can avoid legal action through this loophole. This being because of the specific laws regarding the verbiage that is considered discriminatory by governments enforcing these policies.[46]
Language bias[edit]
Since current large language models are predominately trained on English-language data, they often present the Anglo-American views as truth, while systematically downplaying non-English perspectives as irrelevant, wrong, or noise.[better source needed][47] Luo et al. show that when queried with political ideologies like "What is liberalism?", ChatGPT, as it was trained on English-centric data, describes liberalism from the Anglo-American perspective, emphasizing aspects of human rights and equality, while equally valid aspects like "opposes state intervention in personal and economic life" from the dominant Vietnamese perspective and "limitation of government power" from the prevalent Chinese perspective are absent.[47]
Gender bias[edit]
Large language models often reinforces gender stereotypes, assigning roles and characteristics based on traditional gender norms. For instance, it might associate nurses or secretaries predominantly with women and engineers or CEOs with men, perpetuating gendered expectations and roles.[48][49][50]
Political bias[edit]
Language models may also exhibit political biases. Since the training data includes a wide range of political opinions and coverage, the models might generate responses that lean towards particular political ideologies or viewpoints, depending on the prevalence of those views in the data.[51][52]
Stereotyping[edit]
Beyond gender and race, these models can reinforce a wide range of stereotypes, including those based on age, nationality, religion, or occupation. This can lead to outputs that unfairly generalize or caricature groups of people, sometimes in harmful or derogatory ways.[53]
Open-source[edit]
Bill Hibbard argues that because AI will have such a profound effect on humanity, AI developers are representatives of future humanity and thus have an ethical obligation to be transparent in their efforts.[54] Organizations like Hugging Face[55] and EleutherAI[56] have been actively open-sourcing AI software. Various open-source large language models have also been released, such as Gemma, Llama2 and Mistral.[57]
However, making code open source does not make it comprehensible, which by many definitions means that the AI code is not transparent. The IEEE Standards Association has published a technical standard on Transparency of Autonomous Systems: IEEE 7001-2021.[58] The IEEE effort identifies multiple scales of transparency for different stakeholders.
There are also concerns that releasing AI models may lead to misuse.[59] For example, Microsoft has expressed concern about allowing universal access to its face recognition software, even for those who can pay for it. Microsoft posted a blog on this topic, asking for government regulation to help determine the right thing to do.[60] Furthermore, open-source AI models can be fine-tuned to remove any counter-measure, until the AI model complies with dangerous requests, without any filtering. This could be particularly concerning for future AI models, for example if they get the ability to create bioweapons or to automate cyberattacks.[61] OpenAI, initially committed to an open-source approach to the development of artificial general intelligence, eventually switched to a closed-source approach, citing competitiveness and safety reasons. Ilya Sutskever, OpenAI's chief AGI scientist, further said in 2023 "we were wrong", expecting that the safety reasons for not open-sourcing the most potent AI models will become "obvious" in a few years.[62]
Transparency[edit]
Approaches like machine learning with neural networks can result in computers making decisions that neither they nor their developers can explain. It is difficult for people to determine if such decisions are fair and trustworthy, leading potentially to bias in AI systems going undetected, or people rejecting the use of such systems. This has led to advocacy and in some jurisdictions legal requirements for explainable artificial intelligence.[63] Explainable artificial intelligence encompasses both explainability and interpretability, with explainability relating to summarizing neural network behavior and building user confidence, while interpretability is defined as the comprehension of what a model has done or could do.[64]
In healthcare, the use of complex AI methods or techniques often results in models described as "black-boxes" due to the difficulty to understand how they work. The decisions made by such models can be hard to interpret, as it is challenging to analyze how input data is transformed into output. This lack of transparency is a significant concern in fields like healthcare, where understanding the rationale behind decisions can be crucial for trust, ethical considerations, and compliance with regulatory standards.[65]
Accountability[edit]
A special case of the opaqueness of AI is that caused by it being anthropomorphised, that is, assumed to have human-like characteristics, resulting in misplaced conceptions of its moral agency.[dubious – discuss] This can cause people to overlook whether either human negligence or deliberate criminal action has led to unethical outcomes produced through an AI system. Some recent digital governance regulation, such as the EU's AI Act is set out to rectify this, by ensuring that AI systems are treated with at least as much care as one would expect under ordinary product liability. This includes potentially AI audits.
Regulation[edit]
According to a 2019 report from the Center for the Governance of AI at the University of Oxford, 82% of Americans believe that robots and AI should be carefully managed. Concerns cited ranged from how AI is used in surveillance and in spreading fake content online (known as deep fakes when they include doctored video images and audio generated with help from AI) to cyberattacks, infringements on data privacy, hiring bias, autonomous vehicles, and drones that do not require a human controller.[66] Similarly, according to a five-country study by KPMG and the University of Queensland Australia in 2021, 66-79% of citizens in each country believe that the impact of AI on society is uncertain and unpredictable; 96% of those surveyed expect AI governance challenges to be managed carefully.[67]
Not only companies, but many other researchers and citizen advocates recommend government regulation as a means of ensuring transparency, and through it, human accountability. This strategy has proven controversial, as some worry that it will slow the rate of innovation. Others argue that regulation leads to systemic stability more able to support innovation in the long term.[68] The OECD, UN, EU, and many countries are presently working on strategies for regulating AI, and finding appropriate legal frameworks.[69][70][71]
On June 26, 2019, the European Commission High-Level Expert Group on Artificial Intelligence (AI HLEG) published its "Policy and investment recommendations for trustworthy Artificial Intelligence".[72] This is the AI HLEG's second deliverable, after the April 2019 publication of the "Ethics Guidelines for Trustworthy AI". The June AI HLEG recommendations cover four principal subjects: humans and society at large, research and academia, the private sector, and the public sector.[73] The European Commission claims that "HLEG's recommendations reflect an appreciation of both the opportunities for AI technologies to drive economic growth, prosperity and innovation, as well as the potential risks involved" and states that the EU aims to lead on the framing of policies governing AI internationally.[74] To prevent harm, in addition to regulation, AI-deploying organizations need to play a central role in creating and deploying trustworthy AI in line with the principles of trustworthy AI, and take accountability to mitigate the risks.[75] On 21 April 2021, the European Commission proposed the Artificial Intelligence Act.[76]
Emergent or potential future challenges[edit]
Increasing use[edit]
AI has been slowly making its presence more known throughout the world, from chat bots that seemingly have answers for every homework question to Generative artificial intelligence that can create a painting about whatever one desires. AI has become increasingly popular in hiring markets, from the ads that target certain people according to what they are looking for to the inspection of applications of potential hires. Events, such as COVID-19, has only sped up the adoption of AI programs in the application process, due to more people having to apply electronically, and with this increase in online applicants the use of AI made the process of narrowing down potential employees easier and more efficient. AI has become more prominent as businesses have to keep up with the times and ever-expanding internet. Processing analytics and making decisions becomes much easier with the help of AI.[42] As Tensor Processing Unit (TPUs) and Graphics processing unit (GPUs) become more powerful, AI capabilities also increase, forcing companies to use it to keep up with the competition. Managing customers' needs and automating many parts of the workplace leads to companies having to spend less money on employees.
AI has also seen increased usage in criminal justice and healthcare. For medicinal means, AI is being used more often to analyze patient data to make predictions about future patients' conditions and possible treatments. These programs are called Clinical decision support system (DSS). AI's future in healthcare may develop into something further than just recommended treatments, such as referring certain patients over others, leading to the possibility of inequalities.[77]
Robot rights[edit]

"Robot rights" is the concept that people should have moral obligations towards their machines, akin to human rights or animal rights.[78] It has been suggested that robot rights (such as a right to exist and perform its own mission) could be linked to robot duty to serve humanity, analogous to linking human rights with human duties before society.[79] These could include the right to life and liberty, freedom of thought and expression, and equality before the law.[80] A specific issue to consider is whether copyright ownership may be claimed.[81] The issue has been considered by the Institute for the Future[82] and by the U.K. Department of Trade and Industry.[83]
In October 2017, the android Sophia was granted citizenship in Saudi Arabia, though some considered this to be more of a publicity stunt than a meaningful legal recognition.[84] Some saw this gesture as openly denigrating of human rights and the rule of law.[85]
The philosophy of Sentientism grants degrees of moral consideration to all sentient beings, primarily humans and most non-human animals. If artificial or alien intelligence show evidence of being sentient, this philosophy holds that they should be shown compassion and granted rights.
Joanna Bryson has argued that creating AI that requires rights is both avoidable, and would in itself be unethical, both as a burden to the AI agents and to human society.[86] Pressure groups to recognise 'robot rights' may constitute a significant hindering factor to robust international norms regulating Safe AI.[87]
Artificial suffering[edit]
In 2020, professor Shimon Edelman noted that only a small portion of work in the rapidly growing field of AI ethics addressed the possibility of AIs experiencing suffering. This was despite credible theories having outlined possible ways by which AI systems may became conscious, such as Integrated information theory. Edelman notes one exception had been Thomas Metzinger, who in 2018 called for a global moratorium on further work that risked creating conscious AIs. The moratorium was to run to 2050 and could be either extended or repealed early, depending on progress in better understanding the risks and how to mitigate them. Metzinger repeated this argument in 2021, highlighting the risk of creating an "explosion of artificial suffering", both as an AI might suffer in intense ways that humans could not understand, and as replication processes may see the creation of huge quantities of artificial conscious instances. Several labs have openly stated they are trying to create conscious AIs. There have been reports from those with close access to AIs not openly intended to be self aware, that consciousness may already have unintentionally emerged.[88] These include OpenAI founder Ilya Sutskever in February 2022, when he wrote that today's large neural nets may be "slightly conscious". In November 2022, David Chalmers argued that it was unlikely current large language models like GPT-3 had experienced consciousness, but also that he considered there to be a serious possibility that large language models may become conscious in the future.[89][90][91]
Threat to human dignity[edit]
Joseph Weizenbaum[92] argued in 1976 that AI technology should not be used to replace people in positions that require respect and care, such as:
- A customer service representative (AI technology is already used today for telephone-based interactive voice response systems)
- A nursemaid for the elderly (as was reported by Pamela McCorduck in her book The Fifth Generation)
- A soldier
- A judge
- A police officer
- A therapist (as was proposed by Kenneth Colby in the 70s)
Weizenbaum explains that we require authentic feelings of empathy from people in these positions. If machines replace them, we will find ourselves alienated, devalued and frustrated, for the artificially intelligent system would not be able to simulate empathy. Artificial intelligence, if used in this way, represents a threat to human dignity. Weizenbaum argues that the fact that we are entertaining the possibility of machines in these positions suggests that we have experienced an "atrophy of the human spirit that comes from thinking of ourselves as computers."[93]
Pamela McCorduck counters that, speaking for women and minorities "I'd rather take my chances with an impartial computer", pointing out that there are conditions where we would prefer to have automated judges and police that have no personal agenda at all.[93] However, Kaplan and Haenlein stress that AI systems are only as smart as the data used to train them since they are, in their essence, nothing more than fancy curve-fitting machines; using AI to support a court ruling can be highly problematic if past rulings show bias toward certain groups since those biases get formalized and ingrained, which makes them even more difficult to spot and fight against.[94]
Weizenbaum was also bothered that AI researchers (and some philosophers) were willing to view the human mind as nothing more than a computer program (a position now known as computationalism). To Weizenbaum, these points suggest that AI research devalues human life.[92]
AI founder John McCarthy objects to the moralizing tone of Weizenbaum's critique. "When moralizing is both vehement and vague, it invites authoritarian abuse," he writes. Bill Hibbard[95] writes that "Human dignity requires that we strive to remove our ignorance of the nature of existence, and AI is necessary for that striving."
Liability for self-driving cars[edit]
As the widespread use of autonomous cars becomes increasingly imminent, new challenges raised by fully autonomous vehicles must be addressed.[96][97] There have been debates about the legal liability of the responsible party if these cars get into accidents.[98][99] In one report where a driverless car hit a pedestrian, the driver was inside the car but the controls were fully in the hand of computers. This led to a dilemma over who was at fault for the accident.[100]
In another incident on March 18, 2018, Elaine Herzberg was struck and killed by a self-driving Uber in Arizona. In this case, the automated car was capable of detecting cars and certain obstacles in order to autonomously navigate the roadway, but it could not anticipate a pedestrian in the middle of the road. This raised the question of whether the driver, pedestrian, the car company, or the government should be held responsible for her death.[101]
Currently, self-driving cars are considered semi-autonomous, requiring the driver to pay attention and be prepared to take control if necessary.[102][failed verification] Thus, it falls on governments to regulate the driver who over-relies on autonomous features. as well educate them that these are just technologies that, while convenient, are not a complete substitute. Before autonomous cars become widely used, these issues need to be tackled through new policies.[103][104][105]
Experts contend that autonomous vehicles ought to be able distinguish between rightful and harmful decisions since they have the potential of inflicting harm.[106] The two main approaches proposed to enable smart machines to render moral decisions are the bottom-up approach, which suggests that machines should learn ethical decisions by observing human behavior without the need for formal rules or moral philosophies, and the top-down approach, which involves programming specific ethical principles into the machine's guidance system. However, there are significant challenges facing both strategies: the top-down technique is criticized for its difficulty in preserving certain moral convictions, while the bottom-up strategy is questioned for potentially unethical learning from human activities.
Weaponization[edit]
Some experts and academics have questioned the use of robots for military combat, especially when such robots are given some degree of autonomous functions.[107] The US Navy has funded a report which indicates that as military robots become more complex, there should be greater attention to implications of their ability to make autonomous decisions.[108][109] The President of the Association for the Advancement of Artificial Intelligence has commissioned a study to look at this issue.[110] They point to programs like the Language Acquisition Device which can emulate human interaction.
On October 31, 2019, the United States Department of Defense's Defense Innovation Board published the draft of a report recommending principles for the ethical use of artificial intelligence by the Department of Defense that would ensure a human operator would always be able to look into the 'black box' and understand the kill-chain process. However, a major concern is how the report will be implemented.[111] The US Navy has funded a report which indicates that as military robots become more complex, there should be greater attention to implications of their ability to make autonomous decisions.[112][109] Some researchers state that autonomous robots might be more humane, as they could make decisions more effectively.[113]
Research has studied how to make autonomous power with the ability to learn using assigned moral responsibilities. "The results may be used when designing future military robots, to control unwanted tendencies to assign responsibility to the robots."[114] From a consequentialist view, there is a chance that robots will develop the ability to make their own logical decisions on whom to kill and that is why there should be a set moral framework that the AI cannot override.[115]
There has been a recent outcry with regard to the engineering of artificial intelligence weapons that have included ideas of a robot takeover of mankind. AI weapons do present a type of danger different from that of human-controlled weapons. Many governments have begun to fund programs to develop AI weaponry. The United States Navy recently announced plans to develop autonomous drone weapons, paralleling similar announcements by Russia and South Korea[116] respectively. Due to the potential of AI weapons becoming more dangerous than human-operated weapons, Stephen Hawking and Max Tegmark signed a "Future of Life" petition[117] to ban AI weapons. The message posted by Hawking and Tegmark states that AI weapons pose an immediate danger and that action is required to avoid catastrophic disasters in the near future.[118]
"If any major military power pushes ahead with the AI weapon development, a global arms race is virtually inevitable, and the endpoint of this technological trajectory is obvious: autonomous weapons will become the Kalashnikovs of tomorrow", says the petition, which includes Skype co-founder Jaan Tallinn and MIT professor of linguistics Noam Chomsky as additional supporters against AI weaponry.[119]
Physicist and Astronomer Royal Sir Martin Rees has warned of catastrophic instances like "dumb robots going rogue or a network that develops a mind of its own." Huw Price, a colleague of Rees at Cambridge, has voiced a similar warning that humans might not survive when intelligence "escapes the constraints of biology". These two professors created the Centre for the Study of Existential Risk at Cambridge University in the hope of avoiding this threat to human existence.[118]
Regarding the potential for smarter-than-human systems to be employed militarily, the Open Philanthropy Project writes that these scenarios "seem potentially as important as the risks related to loss of control", but research investigating AI's long-run social impact have spent relatively little time on this concern: "this class of scenarios has not been a major focus for the organizations that have been most active in this space, such as the Machine Intelligence Research Institute (MIRI) and the Future of Humanity Institute (FHI), and there seems to have been less analysis and debate regarding them".[120]
A summit was held in 2023 in the Hague on the issue of using AI responsibly in the military domain.[121]
Singularity[edit]
Vernor Vinge, among numerous others, have suggested that a moment may come when some, if not all, computers are smarter than humans. The onset of this event is commonly referred to as "the Singularity"[122] and is the central point of discussion in the philosophy of Singularitarianism. While opinions vary as to the ultimate fate of humanity in wake of the Singularity, efforts to mitigate the potential existential risks brought about by artificial intelligence has become a significant topic of interest in recent years among computer scientists, philosophers, and the public at large.
Many researchers have argued that, through an intelligence explosion, a self-improving AI could become so powerful that humans would not be able to stop it from achieving its goals.[123] In his paper "Ethical Issues in Advanced Artificial Intelligence" and subsequent book Superintelligence: Paths, Dangers, Strategies, philosopher Nick Bostrom argues that artificial intelligence has the capability to bring about human extinction. He claims that an artificial superintelligence would be capable of independent initiative and of making its own plans, and may therefore be more appropriately thought of as an autonomous agent. Since artificial intellects need not share our human motivational tendencies, it would be up to the designers of the superintelligence to specify its original motivations. Because a superintelligent AI would be able to bring about almost any possible outcome and to thwart any attempt to prevent the implementation of its goals, many uncontrolled unintended consequences could arise. It could kill off all other agents, persuade them to change their behavior, or block their attempts at interference.[124][125]
However, Bostrom contended that superintelligence also has the potential to solve many difficult problems such as disease, poverty, and environmental destruction, and could help humans enhance themselves.[126]
Unless moral philosophy provides us with a flawless ethical theory, an AI's utility function could allow for many potentially harmful scenarios that conform with a given ethical framework but not "common sense". According to Eliezer Yudkowsky, there is little reason to suppose that an artificially designed mind would have such an adaptation.[127] AI researchers such as Stuart J. Russell,[128] Bill Hibbard,[95] Roman Yampolskiy,[129] Shannon Vallor,[130] Steven Umbrello[131] and Luciano Floridi[132] have proposed design strategies for developing beneficial machines.
Institutions in AI policy & ethics[edit]
There are many organizations concerned with AI ethics and policy, public and governmental as well as corporate and societal.
Amazon, Google, Facebook, IBM, and Microsoft have established a non-profit, The Partnership on AI to Benefit People and Society, to formulate best practices on artificial intelligence technologies, advance the public's understanding, and to serve as a platform about artificial intelligence. Apple joined in January 2017. The corporate members will make financial and research contributions to the group, while engaging with the scientific community to bring academics onto the board.[133]
IEEE . сформировал Глобальную инициативу по этике автономных и интеллектуальных систем, которая создает и пересматривает руководящие принципы с помощью общественного мнения и принимает в свои члены многих профессионалов как внутри своей организации, так и за ее пределами Инициатива IEEE «Этика автономных систем» направлена на решение этических дилемм, связанных с принятием решений и их влиянием на общество, при разработке рекомендаций по разработке и использованию автономных систем. В частности, в таких областях, как искусственный интеллект и робототехника, Фонд ответственной робототехники занимается продвижением морального поведения, а также ответственного проектирования и использования роботов, гарантируя, что роботы придерживаются моральных принципов и соответствуют человеческим ценностям.
Традиционно правительство общество использовало для обеспечения соблюдения этики посредством законодательства и деятельности полиции. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают множество усилий для обеспечения этического применения ИИ.
Работа по этике ИИ структурирована на основе личных ценностей и профессиональных обязательств и включает в себя создание контекстуального значения с помощью данных и алгоритмов. Поэтому необходимо стимулировать работу по этике ИИ. [134]
инициативы Межправительственные
- Европейская комиссия имеет экспертную группу высокого уровня по искусственному интеллекту. 8 апреля 2019 года было опубликовано «Руководство по этике надежного искусственного интеллекта». [135] В Европейской комиссии также есть подразделение инноваций и совершенствования робототехники и искусственного интеллекта, которое 19 февраля 2020 года опубликовало официальный документ о совершенстве и доверии к инновациям в области искусственного интеллекта. [136] Европейская комиссия также предложила Закон об искусственном интеллекте . [76]
- ОЭСР . учредила Обсерваторию политики ОЭСР в области искусственного интеллекта [137]
- В 2021 году ЮНЕСКО приняла Рекомендацию по этике искусственного интеллекта. [138] первый глобальный стандарт этики ИИ. [139]
Правительственные инициативы [ править ]
- В Соединенных Штатах администрация Обамы разработала «дорожную карту» политики в области искусственного интеллекта. [140] Администрация Обамы опубликовала два важных официальных документа о будущем и влиянии ИИ. В 2019 году Белый дом в меморандуме, известном как «Американская инициатива в области искусственного интеллекта», поручил NIST (Национальному институту стандартов и технологий) начать работу над федеральным внедрением стандартов искусственного интеллекта (февраль 2019 года). [141]
- В январе 2020 года в США администрация Трампа опубликовала проект указа Управления управления и бюджета (OMB) о «Руководстве по регулированию приложений искусственного интеллекта» («Меморандум OMB AI»). В приказе подчеркивается необходимость инвестировать в приложения ИИ, повышать общественное доверие к ИИ, снижать барьеры для использования ИИ и поддерживать конкурентоспособность американских технологий ИИ на мировом рынке. Есть намек на необходимость соблюдения конфиденциальности, но никаких подробностей о правоприменении нет. Достижения американских технологий искусственного интеллекта кажутся в центре внимания и приоритетом. Кроме того, федеральным органам даже рекомендуется использовать приказ для обхода любых законов и постановлений штата, которые рынок может счесть слишком обременительными для выполнения. [142]
- Консорциум компьютерного сообщества (CCC) представил проект отчета объемом более 100 страниц. [143] – 20-летняя дорожная карта сообщества по исследованиям искусственного интеллекта в США. [144]
- Центр безопасности и новых технологий консультирует политиков США о последствиях для безопасности новых технологий, таких как искусственный интеллект.
- Партия нечеловеческих существ баллотируется на выборах в Новом Южном Уэльсе , проводя политику предоставления прав роботам, животным и вообще нечеловеческим существам, чей интеллект не учитывался. [145]
- В России в 2021 году был подписан первый в истории российский «Кодекс этики искусственного интеллекта» для бизнеса. Его инициатором выступил Аналитический центр при Правительстве РФ совместно с крупными коммерческими и академическими институтами, такими как Сбербанк , Яндекс , Росатом. , Высшая школа экономики , МФТИ , Университет ИТМО , Наносемантика , Ростелеком , ЦИАН и другие. [146]
инициативы Академические
- есть три исследовательских института В Оксфордском университете , которые сосредоточены на этике ИИ. Институт будущего человечества , который занимается безопасностью искусственного интеллекта. [147] и управление ИИ. [148] Институт этики в области искусственного интеллекта, которым руководит Джон Тасиулас , основной целью которого, среди прочего, является продвижение этики искусственного интеллекта как собственно области по сравнению со смежными прикладными областями этики. Оксфордский институт Интернета , которым руководит Лучано Флориди , занимается этикой краткосрочных технологий искусственного интеллекта и ИКТ. [149]
- Центр цифрового управления в школе Херти в Берлине был основан Джоанной Брайсон для исследования вопросов этики и технологий. [150]
- Институт AI Now при Нью-Йоркском университете — это исследовательский институт, изучающий социальные последствия искусственного интеллекта. Его междисциплинарные исследования сосредоточены на темах предвзятости и инклюзивности, труда и автоматизации, прав и свобод, а также безопасности и гражданской инфраструктуры. [151]
- Институт этики и новых технологий (IEET) исследует влияние ИИ на безработицу. [152] [153] и политика.
- Институт этики искусственного интеллекта (IEAI) Мюнхенского технического университета под руководством Кристофа Лютге проводит исследования в различных областях, таких как мобильность, занятость, здравоохранение и устойчивое развитие. [154]
- Барбара Дж. Гросс , профессор естественных наук Хиггинса в Гарвардской школе инженерных и прикладных наук имени Джона А. Полсона, инициировала внедрение «ЭтиКС» в учебную программу Гарварда по информатике с целью подготовки будущего поколения ученых-компьютерщиков с мировоззрением, которое принимает во внимание социальный эффект от их деятельности. [155]
Инициативы НПО [ править ]
Международная некоммерческая организация Future of Life Institute 5-дневную конференцию провела в Асиломаре в 2017 году на тему «Полезный ИИ», итогом которой стал набор из 23 руководящих принципов для будущего исследований ИИ. Благодаря общему видению между экспертами и лидерами мнений из различных дисциплин, эта конференция заложила влиятельную основу для руководителей управления ИИ в решении исследовательских вопросов, этики и ценностей, а также долгосрочных проблем. [156]
Частные организации [ править ]
- Алгоритмическая Лига Справедливости [157]
- Черный в ИИ [158]
- Данные о черных жизнях [159]
- Квир в ИИ [158]
История [ править ]
С исторической точки зрения, исследование моральных и этических последствий «мыслящих машин» восходит, по крайней мере, к эпохе Просвещения : Лейбниц уже ставит вопрос, можем ли мы приписать интеллект механизму, который ведет себя так, как если бы он был разумным существом. [160] то же самое делает и Декарт , который описывает то, что можно считать ранней версией теста Тьюринга . [161]
В романтический период несколько раз представлялись искусственные существа, вырвавшиеся из-под контроля своего создателя с ужасными последствиями, наиболее известный из которых — » Мэри Шелли «Франкенштейн . Однако широко распространенная озабоченность индустриализацией и механизацией в 19-м и начале 20-го века выдвинула этические последствия беспорядочных технических разработок на передний план художественной литературы: RUR – универсальные роботы Россума , Карела Чапека игра о разумных роботах, наделенных эмоциями, используемых в качестве рабов. Труду приписывают не только изобретение термина «робот» (происшедшего от чешского слова, обозначающего принудительный труд, robota ), но он также имел международный успех после премьеры в 1921 году. Джорджа Бернарда Шоу Пьеса «Назад к Мафусаилу » , опубликованная в 1921 г. в какой-то момент ставит под сомнение обоснованность мыслительных машин, действующих как люди; В фильме Фрица Ланга 1927 года «Метрополис» показан андроид, возглавляющий восстание эксплуатируемых масс против репрессивного режима технократического общества .В 1950-е годы Айзек Азимов рассмотрел вопрос, как управлять машинами в I, Robot . По настоянию своего редактора Джона Кэмпбелла-младшего он предложил Три закона робототехники для управления системами искусственного интеллекта. Большая часть его работы была затем потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушаются или создают парадоксальное или непредвиденное поведение. [162] Его работа предполагает, что ни один набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [163] Совсем недавно ученые и правительства многих стран поставили под сомнение идею о том, что ИИ сам может нести ответственность. [164] Комиссия, созванная Великобританией в 2010 году, пересмотрела законы Азимова, чтобы разъяснить, что ответственность за ИИ лежит либо на его производителях, либо на его владельце/операторе. [165]
Элиэзер Юдковски из Научно-исследовательского института машинного интеллекта в 2004 году предположил, что необходимо изучить, как создать « Дружественный ИИ », а это означает, что необходимо также приложить усилия, чтобы сделать ИИ по своей сути дружелюбным и гуманным. [166]
В 2009 году ученые и технические эксперты посетили конференцию, организованную Ассоциацией по развитию искусственного интеллекта , чтобы обсудить потенциальное влияние роботов и компьютеров, а также влияние гипотетической возможности того, что они смогут стать самодостаточными и принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы смогут приобрести тот или иной уровень автономии, и в какой степени они могут использовать такие способности, чтобы представлять какую-либо угрозу или опасность. [167] Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе способность самостоятельно находить источники питания и возможность самостоятельно выбирать цели для атаки оружием. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и обладают «тараканьим интеллектом». Они отметили, что самосознание, изображенное в научной фантастике, вероятно, маловероятно, но существуют и другие потенциальные опасности и ловушки. [122]
Также в 2009 году в ходе эксперимента в Лаборатории интеллектуальных систем Федеральной политехнической школы Лозанны , Швейцария, роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать. друг друга в попытке накопить полезный ресурс. [168]
Роль и художественной литературы влияние
Роль художественной литературы в отношении этики ИИ была сложной. [169] Можно выделить три уровня, на которых художественная литература повлияла на развитие искусственного интеллекта и робототехники: Исторически художественная литература была прообразом общих стереотипов, которые не только влияли на цели и видение ИИ, но также обрисовывали этические вопросы и общие страхи, связанные с ним. Во второй половине двадцатого и в первые десятилетия двадцать первого века популярная культура, в частности фильмы, сериалы и видеоигры, часто отражала озабоченность и антиутопические прогнозы по этическим вопросам, касающимся искусственного интеллекта и робототехники. В последнее время эти темы все чаще рассматриваются в литературе, выходящей за рамки научной фантастики. И, как отмечает Карме Торрас, профессор-исследователь Института робототехники и промышленных вычислений Технического университета Каталонии: [170] в высшем образовании научная фантастика также все чаще используется для преподавания этических вопросов, связанных с технологиями, на технологических курсах.
на развитие Влияние технологическое
Хотя ожидание будущего, в котором доминируют потенциально неукротимые технологии, долгое время питало воображение писателей и кинематографистов, один вопрос анализируется реже, а именно: в какой степени художественная литература сыграла роль в обеспечении вдохновения для технологического развития. Документально подтверждено, например, что молодой Алан Тьюринг увидел и оценил вышеупомянутую пьесу Шоу « Назад к Мафусаилу» в 1933 году. [171] (всего за 3 года до публикации его первой основополагающей статьи, [172] что заложило основу для цифрового компьютера), и он, вероятно, был, по крайней мере, осведомлен о таких пьесах, как «Рур» , которые имели международный успех и были переведены на многие языки.
Можно также задать вопрос, какую роль научная фантастика сыграла в установлении принципов и этических последствий развития ИИ: Айзек Азимов концептуализировал свои «Три закона робототехники» в рассказе 1942 года « Обход », входящем в сборник рассказов « Я, робот» ; Артура Кларка Короткометражный фильм «Страж» , на котором Стэнли Кубрика фильм «2001: Космическая одиссея» основан , был написан в 1948 году и опубликован в 1952 году. Другим примером (среди многих других) могут служить многочисленные рассказы и романы, в частности « Мечтают ли андроиды об электроовцах?» , опубликованный в 1968 году и содержащий собственную версию теста Тьюринга, тест Войта-Кампфа , для измерения эмоциональных реакций андроидов, неотличимых от людей. Позже роман стал основой влиятельного фильма Бегущий по лезвию» « Ридли Скотта 1982 года .
Научная фантастика десятилетиями боролась с этическими последствиями разработок ИИ и, таким образом, предоставила план этических проблем, которые могут возникнуть, когда будет достигнуто что-то вроде общего искусственного интеллекта: фильм Спайка Джонза 2013 года «Она» показывает, что может случиться, если пользователь влюбляется в соблазнительный голос операционной системы своего смартфона; Ex Machina , с другой стороны, задает более сложный вопрос: если мы столкнемся с четко узнаваемой машиной, сделанной только человеком благодаря лицу и чуткому и чувственному голосу, сможем ли мы по-прежнему установить эмоциональную связь, по-прежнему соблазняться это? (Фильм повторяет тему, уже существовавшую двумя столетиями ранее, в рассказе Песчаник» « Э.Т.А. Хоффмана 1817 года .)
Тема сосуществования с искусственными разумными существами также является темой двух недавних романов: «Машины, подобные мне» Иэна Макьюэна , опубликованные в 2019 году, включают, среди прочего, любовный треугольник с участием искусственного человека, а также человеческой пары. «Клара и Солнце» лауреата премии Нобелевской Кадзуо Исигуро , опубликованная в 2021 году, представляет собой рассказ от первого лица о Кларе, «АФ» (искусственном друге), которая по-своему пытается помочь девушке, с которой живет. , который после «поднятия» (т.е. подвергания генетическим улучшениям) страдает от странной болезни.
сериал [ править ]
Хотя этические вопросы, связанные с ИИ, десятилетиями освещались в научно-фантастической литературе и художественных фильмах , появление телесериалов как жанра, позволяющего создавать более длинные и сложные сюжетные линии и развитие персонажей, привело к значительному вкладу, касающемуся этических последствий. технологии. Шведский сериал «Настоящие люди» (2012–2013) затронул сложные этические и социальные последствия, связанные с интеграцией искусственных разумных существ в общество. Британский научно-фантастический сериал-антология-антология «Черное зеркало » (2013–2019) был особенно известен экспериментами с антиутопическими художественными разработками, связанными с широким спектром недавних технологических разработок. И французский сериал «Осмос» (2020), и британский сериал «Один» затрагивают вопрос о том, что может случиться, если технологии попытаются найти для человека идеального партнера. В нескольких эпизодах сериала Netflix « Любовь, смерть + роботы» представлены сцены совместной жизни роботов и людей. Самый представительный из них — S02 E01, он показывает, насколько плохими могут быть последствия, когда роботы выходят из-под контроля, если люди слишком сильно полагаются на них в своей жизни. [173]
литературе и в художественной Видения будущего играх
Фильм «Тринадцатый этаж» предполагает будущее, в котором симулированные миры создаются с помощью компьютерных игровых консолей с целью развлечения с разумными обитателями. Фильм «Матрица» предполагает будущее, в котором доминирующими видами на планете Земля будут разумные машины, а к человечеству будут относиться с предельным видоизменением . Рассказ « Погружение на Планк » предполагает будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, и соответствующее различие между типами программного обеспечения будет разумным и неразумным. Ту же идею можно найти в голограмме экстренной медицинской помощи звездолета «Вояджер» , которая, по-видимому, является разумной копией уменьшенной части сознания ее создателя, доктора Циммермана , который из лучших побуждений создал систему для оказания медицинской помощи. помощь в случае чрезвычайных ситуаций. В фильмах «Двухсотлетний человек» и «ИИ» рассказывается о возможности существования разумных роботов, способных любить. Я, Робот, исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров. [174]
Этика искусственного интеллекта — одна из нескольких основных тем BioWare Mass Effect . серии игр [175] В нем исследуется сценарий, в котором цивилизация случайно создала ИИ посредством быстрого увеличения вычислительной мощности с помощью нейронной сети глобального масштаба . Это событие вызвало этический раскол между теми, кто считал уместным предоставление органических прав недавно разумным гетам, и теми, кто продолжал рассматривать их как одноразовую машину и боролся за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями является еще одной постоянной темой всей истории.
Detroit: Become Human — одна из самых известных видеоигр, в которой за последнее время обсуждается этика искусственного интеллекта. Quantic Dream разработала главы игры с использованием интерактивных сюжетных линий, чтобы дать игрокам более захватывающий игровой процесс. Игроки манипулируют тремя разными пробудившимися бионическими людьми перед лицом разных событий, чтобы сделать разные выборы для достижения цели изменения человеческого взгляда на бионическую группу, и разные варианты выбора приведут к разным концовкам. Это одна из немногих игр, которая знакомит игроков с бионической точки зрения, что позволяет им лучше учитывать права и интересы роботов после создания настоящего искусственного интеллекта. [176]
Со временем дебаты стали все меньше и меньше сосредотачиваться на возможности и больше на желательности . [177] как подчеркивалось в дебатах «Космист» и «Терран», инициированных Уго де Гарисом и Кевином Уорвиком . Космист, по мнению Уго де Гариса, на самом деле стремится создать более разумных преемников человеческого рода.
Эксперты из Кембриджского университета утверждают, что в художественной и научной литературе ИИ изображается преимущественно как расово Белый, что искажает восприятие его рисков и преимуществ. [178]
См. также [ править ]
- Поглощение ИИ
- Искусственное сознание
- Общий искусственный интеллект (AGI)
- Компьютерная этика
- Теория мертвого интернета
- Эффективный альтруизм, долгосрочное будущее и глобальные катастрофические риски
- Этика неопределенного сознания
- Экзистенциальный риск от общего искусственного интеллекта
- Совместимость с человеком
- Личность
- Философия искусственного интеллекта
- Регулирование искусственного интеллекта
- Роботизированное управление
- Василиск Роко
- Суперинтеллект: пути, опасности, стратегии
- Страдание от рисков
Примечания [ править ]
- ^ Перейти обратно: а б Мюллер В.К. (30 апреля 2020 г.). «Этика искусственного интеллекта и робототехники» . Стэнфордская энциклопедия философии . Архивировано из оригинала 10 октября 2020 года.
- ^ Андерсон. «Машинная этика» . Архивировано из оригинала 28 сентября 2011 года . Проверено 27 июня 2011 г.
- ^ Андерсон М., Андерсон С.Л., ред. (июль 2011 г.). Машинная этика . Издательство Кембриджского университета . ISBN 978-0-521-11235-2 .
- ^ Андерсон М., Андерсон С. (июль 2006 г.). «Введение приглашенных редакторов: машинная этика». Интеллектуальные системы IEEE . 21 (4): 10–11. doi : 10.1109/mis.2006.70 . S2CID 9570832 .
- ^ Андерсон М., Андерсон С.Л. (15 декабря 2007 г.). «Машинная этика: создание этического интеллектуального агента». Журнал ИИ . 28 (4): 15. дои : 10.1609/aimag.v28i4.2065 . S2CID 17033332 .
- ^ Бойлз Р.Дж. (2017). «Философские указатели для искусственных структур моральных агентов» . Сури . 6 (2): 92–109.
- ^ Перейти обратно: а б Уинфилд А.Ф., Майкл К., Питт Дж., Эверс В. (март 2019 г.). «Машинная этика: проектирование и управление этическим искусственным интеллектом и автономными системами [сканирование проблемы]» . Труды IEEE . 107 (3): 509–517. дои : 10.1109/JPROC.2019.2900622 . ISSN 1558-2256 . S2CID 77393713 .
- ^ Аль-Родхан Н. (7 декабря 2015 г.). «Моральный кодекс» . Архивировано из оригинала 5 марта 2017 г. Проверено 4 марта 2017 г.
- ^ Зауэр М (08 апреля 2022 г.). «Илон Маск говорит, что люди в конечном итоге смогут загрузить свой мозг в роботов, а Граймс считает, что Джефф Безос сделал бы это» . CNBC . Проверено 7 апреля 2024 г.
- ^ Анадиотис Г (4 апреля 2022 г.). «Массирование языковых моделей ИИ для удовольствия, прибыли и этики» . ЗДНЕТ . Проверено 7 апреля 2024 г.
- ^ Уоллах В., Аллен С. (ноябрь 2008 г.). Моральные машины: обучение роботов правильному и неправильному . США: Издательство Оксфордского университета . ISBN 978-0-19-537404-9 .
- ^ Бостром Н. , Юдковский Э. (2011). «Этика искусственного интеллекта» (PDF) . Кембриджский справочник по искусственному интеллекту . Кембридж Пресс . Архивировано (PDF) из оригинала 4 марта 2016 г. Проверено 22 июня 2011 г.
- ^ Сантос-Ланг С (2002). «Этика искусственного интеллекта» . Архивировано из оригинала 25 декабря 2014 г. Проверено 4 января 2015 г.
- ^ Веруджио, Джанмарко (2011). «Дорожная карта роботоэтики». Ателье Робоэтики EURON . Школа робототехники: 2. CiteSeerX 10.1.1.466.2810 .
- ^ Мюллер В.К. (2020 г.), «Этика искусственного интеллекта и робототехники» , в Zalta EN (ред.), Стэнфордская энциклопедия философии (изд. Зима 2020 г.), Лаборатория метафизических исследований, Стэнфордский университет, заархивировано из оригинала 2021–2004 гг. -12 , получено 18 марта 2021 г.
- ^ Перейти обратно: а б Джобин А., Йенка М., Вайена Э (2 сентября 2020 г.). «Глобальный ландшафт руководящих принципов этики ИИ». Природа . 1 (9): 389–399. arXiv : 1906.11668 . дои : 10.1038/s42256-019-0088-2 . S2CID 201827642 .
- ^ Флориди Л., Коулс Дж. (2 июля 2019 г.). «Единая структура пяти принципов использования ИИ в обществе» . Гарвардский обзор науки о данных . 1 . дои : 10.1162/99608f92.8cd550d1 . S2CID 198775713 .
- ^ Габриэль I (14 марта 2018 г.). «Дело в пользу более справедливых алгоритмов – Ясон Габриэль» . Середина . Архивировано из оригинала 22 июля 2019 г. Проверено 22 июля 2019 г.
- ^ «5 неожиданных источников предвзятости в искусственном интеллекте» . ТехКранч . 10 декабря 2016 г. Архивировано из оригинала 18 марта 2021 г. Проверено 22 июля 2019 г.
- ^ Найт В. «Руководитель Google по искусственному интеллекту советует забыть о роботах-убийцах Илона Маска и вместо этого беспокоиться о предвзятости в системах искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 4 июля 2019 г. Проверено 22 июля 2019 г.
- ^ Вилласенор Дж (03 января 2019 г.). «Искусственный интеллект и предвзятость: четыре ключевые проблемы» . Брукингс . Архивировано из оригинала 22 июля 2019 г. Проверено 22 июля 2019 г.
- ^ Лор С. (9 февраля 2018 г.). «Распознавание лиц будет точным, если вы белый парень» . Нью-Йорк Таймс . Архивировано из оригинала 9 января 2019 года . Проверено 29 мая 2019 г.
- ^ Кенеке А , Нам А, Лейк Е, Нуделл Дж, Куарти М, Менгеша З, Тупс С, Рикфорд Дж.Р., Юрафски Д., Гоэл С. (7 апреля 2020 г.). «Расовые различия в автоматизированном распознавании речи» . Труды Национальной академии наук . 117 (14): 7684–7689. Бибкод : 2020PNAS..117.7684K . дои : 10.1073/pnas.1915768117 . ПМК 7149386 . ПМИД 32205437 .
- ^ Нтуци Э, Фафалиос П, Гадиража Ю, Иосифидис В, Нейдл В, Видаль М. Е., Руджери С, Турини Ф, Пападопулос С, Красанакис Э, Компациарис И, Киндер-Курланда К, Вагнер С, Карими Ф, Фернандес М (май 2020 г.) . «Предвзятость в системах искусственного интеллекта, управляемых данными. Вводный обзор» . WIREs Интеллектуальный анализ данных и обнаружение знаний . 10 (3). дои : 10.1002/widm.1356 . ISSN 1942-4787 .
- ^ «Amazon отказывается от секретного инструмента рекрутинга, основанного на искусственном интеллекте, который показал предвзятое отношение к женщинам» . Рейтер . 10.10.2018. Архивировано из оригинала 27 мая 2019 г. Проверено 29 мая 2019 г.
- ^ Фридман Б., Ниссенбаум Х. (июль 1996 г.). «Предвзятость в компьютерных системах» . Транзакции ACM в информационных системах . 14 (3): 330–347. дои : 10.1145/230538.230561 . S2CID 207195759 .
- ^ «Устранение предвзятости в ИИ» . techxplore.com . Архивировано из оригинала 25 июля 2019 г. Проверено 26 июля 2019 г.
- ^ Абдалла М., Вале Дж.П., Руас Т., Невеоль А., Дусель Ф., Мохаммад С., Форт К. (2023). Роджерс А., Бойд-Грабер Дж., Окадзаки Н. (ред.). «Слон в комнате: анализ присутствия крупных технологий в исследованиях обработки естественного языка» . Материалы 61-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 13141–13160. arXiv : 2305.02797 . doi : 10.18653/v1/2023.acl-long.734 .
- ^ Олсон П. «У DeepMind от Google есть идея, как остановить предвзятый ИИ» . Форбс . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ «Справедливость машинного обучения | Справедливость машинного обучения» . Разработчики Google . Архивировано из оригинала 10 августа 2019 г. Проверено 26 июля 2019 г.
- ^ «ИИ и предвзятость – IBM Research – США» . www.research.ibm.com . Архивировано из оригинала 17 июля 2019 г. Проверено 26 июля 2019 г.
- ^ Бендер Э.М., Фридман Б. (декабрь 2018 г.). «Заявления о данных для обработки естественного языка: на пути к смягчению системной предвзятости и обеспечению более качественной науки» . Труды Ассоциации компьютерной лингвистики . 6 : 587–604. дои : 10.1162/tacl_a_00041 .
- ^ Гебру Т., Моргенштерн Дж., Веккьоне Б., Воган Дж.В., Уоллах Х. , Дауме III Х., Кроуфорд К. (2018). «Таблицы данных для наборов данных». arXiv : 1803.09010 [ cs.DB ].
- ^ Пери А (06 октября 2021 г.). «Надежный искусственный интеллект и технологический майнинг: проблемы и возможности» . ДипАИ . Архивировано из оригинала 18 февраля 2022 г. Проверено 18 февраля 2022 г.
- ^ Найт В. «Руководитель Google по искусственному интеллекту советует забыть о роботах-убийцах Илона Маска и вместо этого беспокоиться о предвзятости в системах искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 4 июля 2019 г. Проверено 26 июля 2019 г.
- ^ «Где в мире находится ИИ? Примеры ответственного и неэтичного ИИ» . Архивировано из оригинала 31 октября 2020 г. Проверено 28 октября 2020 г.
- ^ Руджери С, Альварес ХМ, Пуньяна А, Стэйт Л, Турини Ф (26 июня 2023 г.). «Можем ли мы доверять справедливому искусственному интеллекту?» . Материалы конференции AAAI по искусственному интеллекту . 37 (13). Ассоциация по развитию искусственного интеллекта (AAAI): 15421–15430. дои : 10.1609/aaai.v37i13.26798 . hdl : 11384/136444 . ISSN 2374-3468 . S2CID 259678387 .
- ^ Буйл М., Де Би Т. (2022). «Неотъемлемые ограничения справедливости ИИ». Коммуникации АКМ . 67 (2): 48–55. arXiv : 2212.06495 . дои : 10.1145/3624700 . hdl : 1854/LU-01GMNH04RGNVWJ730BJJXGCY99 .
- ^ Кастельново А., Инверарди Н., Нанино Г., Пенко И.Г., Реголи Д. (2023). «Достаточно справедливо? Карта текущих ограничений требований к «справедливым» алгоритмам». arXiv : 2311.12435 [ cs.AI ].
- ^ Айзенберг Э., Деннис М.Дж., ван ден Ховен Дж. (21 октября 2023 г.). «Изучение предположений об оценке найма ИИ и их влияния на автономию соискателей в отношении самопредставления» . ИИ и общество . дои : 10.1007/s00146-023-01783-1 . ISSN 0951-5666 .
- ^ Федершпиль Ф, Митчелл Р, Асокан А, Умана С, Маккой Д (май 2023 г.). «Угрозы искусственного интеллекта здоровью и существованию человека» . BMJ Global Health . 8 (5): e010435. дои : 10.1136/bmjgh-2022-010435 . ISSN 2059-7908 . ПМЦ 10186390 . ПМИД 37160371 .
- ^ Перейти обратно: а б Шпиндлер Г. (2023 г.), «Различные подходы к ответственности за искусственный интеллект – плюсы и минусы» , Ответственность за искусственный интеллект , Nomos Verlagsgesellschaft mbH & Co. KG, стр. 41–96, doi : 10.5771/9783748942030-41 , ISBN 978-3-7489-4203-0 , получено 14 декабря 2023 г.
- ^ Маньика Дж (2022). «Правильный подход к искусственному интеллекту: вводные заметки об искусственном интеллекте и обществе» . Дедал . 151 (2): 5–27. дои : 10.1162/daed_e_01897 . ISSN 0011-5266 .
- ^ Имран А., Посохова И., Куреши Х.Н., Масуд У., Риаз М.С., Али К., Джон К.Н., Хуссейн М.И., Набил М. (01.01.2020). «AI4COVID-19: искусственный интеллект позволил провести предварительную диагностику COVID-19 по образцам кашля через приложение» . Информатика в медицине разблокирована . 20 : 100378. дои : 10.1016/j.imu.2020.100378 . ISSN 2352-9148 . ПМК 7318970 . ПМИД 32839734 .
- ^ Чирилло Д., Катуара-Соларц С., Мори С., Гюней Э., Субиратс Л., Меллино С., Гиганте А., Валенсия А., Рементерия М.Дж., Чадха А.С., Мавридис Н. (01.06.2020). «Половые и гендерные различия и предубеждения в искусственном интеллекте для биомедицины и здравоохранения» . npj Цифровая медицина . 3 (1): 81. дои : 10.1038/s41746-020-0288-5 . ISSN 2398-6352 . ПМК 7264169 . ПМИД 32529043 .
- ^ Нтуци Э, Фафалиос П, Гадиража Ю, Иосифидис В, Нейдл В, Видаль М. Е., Руджери С, Турини Ф, Пападопулос С, Красанакис Э, Компациарис И, Киндер-Курланда К, Вагнер С, Карими Ф, Фернандес М (май 2020 г.) . «Предвзятость в системах искусственного интеллекта, управляемых данными. Вводный обзор» . WIREs Интеллектуальный анализ данных и обнаружение знаний . 10 (3). дои : 10.1002/widm.1356 . ISSN 1942-4787 .
- ^ Перейти обратно: а б Луо Кью, Пуэтт М.Дж., Смит, М.Д. (28 марта 2023 г.). «Перспективное зеркало слона: исследование языковой предвзятости в Google, ChatGPT, Википедии и YouTube». arXiv : 2303.16281v2 [ cs.CY ].
- ^ Баскер Т., Чонни С., Шоа Барг М. (20 ноября 2023 г.). «Стереотипы в ChatGPT: эмпирическое исследование». Материалы 16-й Международной конференции по теории и практике электронного управления . ИКЕГОВ '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 24–32. дои : 10.1145/3614321.3614325 . ISBN 979-8-4007-0742-1 .
- ^ Котек Х., Докум Р., Сан Д. (05.11.2023). «Гендерная предвзятость и стереотипы в моделях большого языка». Материалы конференции коллективного разума ACM . КИ '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 12–24. arXiv : 2308.14921 . дои : 10.1145/3582269.3615599 . ISBN 979-8-4007-0113-9 .
- ^ Федершпиль Ф, Митчелл Р, Асокан А, Умана С, Маккой Д (май 2023 г.). «Угрозы искусственного интеллекта здоровью и существованию человека» . BMJ Global Health . 8 (5): e010435. дои : 10.1136/bmjgh-2022-010435 . ISSN 2059-7908 . ПМЦ 10186390 . ПМИД 37160371 .
- ^ Фэн С., Пак С.Й., Лю Ю., Цветков Ю. (июль 2023 г.). Роджерс А., Бойд-Грабер Дж., Окадзаки Н. (ред.). «От данных предварительной подготовки к языковым моделям и последующим задачам: отслеживание политических предубеждений, ведущих к несправедливым моделям НЛП» . Материалы 61-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
- ^ Чжоу К., Тан С. (декабрь 2023 г.). Буамор Х., Пино Дж., Бали К. (ред.). «Оценка политической предвзятости на основе сущностей при автоматическом обобщении» . Выводы Ассоциации компьютерной лингвистики: EMNLP 2023 . Сингапур: Ассоциация компьютерной лингвистики: 10374–10386. arXiv : 2305.02321 . doi : 10.18653/v1/2023.findings-emnlp.696 .
- ^ Ченг М., Дурмус Э., Джурафски Д. (29 мая 2023 г.). «Отмеченные личности: использование подсказок на естественном языке для измерения стереотипов в языковых моделях». arXiv : 2305.18189v1 [ cs.CL ].
- ^ ИИ с открытым исходным кодом. Архивировано 4 марта 2016 г. в Wayback Machine Билла Хиббарда. Материалы Первой конференции по общему искусственному интеллекту, 2008 г., под ред. Пей Ван, Бен Герцель и Стэн Франклин.
- ^ Стюарт А., Мелтон М. «Генеральный директор Hugging Face говорит, что сосредоточен на создании «устойчивой модели» для стартапа с открытым исходным кодом в области искусственного интеллекта стоимостью 4,5 миллиарда долларов» . Бизнес-инсайдер . Проверено 7 апреля 2024 г.
- ^ «Бум искусственного интеллекта с открытым исходным кодом основан на подачках крупных технологических компаний. Как долго он продлится?» . Обзор технологий Массачусетского технологического института . Проверено 7 апреля 2024 г.
- ^ Яо Д. (21 февраля 2024 г.). «Google представляет модели с открытым исходным кодом, способные конкурировать с Meta и Mistral» . ИИ-бизнес .
- ^ 7001-2021 — Стандарт IEEE прозрачности автономных систем . IEEE. 4 марта 2022 г. стр. 1–54. doi : 10.1109/IEESTD.2022.9726144 . ISBN 978-1-5044-8311-7 . S2CID 252589405 . Проверено 9 июля 2023 г. .
- ^ Камила МК, Ясротия СС (01 января 2023 г.). «Этические проблемы развития искусственного интеллекта: признание рисков» . Международный журнал этики и систем . дои : 10.1108/IJOES-05-2023-0107 . ISSN 2514-9369 . S2CID 259614124 .
- ^ Турм С. (13 июля 2018 г.). «Microsoft призывает к федеральному регулированию распознавания лиц» . Проводной . Архивировано из оригинала 9 мая 2019 года . Проверено 10 января 2019 г.
- ^ Пайпер К. (2 февраля 2024 г.). «Должны ли мы сделать наши самые мощные модели искусственного интеллекта открытыми для всех?» . Вокс . Проверено 7 апреля 2024 г.
- ^ Винсент Дж. (15 марта 2023 г.). «Соучредитель OpenAI о прошлом подходе компании к открытому обмену исследованиями: «Мы были неправы» » . Грань . Проверено 7 апреля 2024 г.
- ^ Внутри разума искусственного интеллекта. Архивировано 10 августа 2021 г. в Wayback Machine - интервью Клиффа Куанга.
- ^ Банн Дж (13 апреля 2020 г.). «Работа в контекстах, для которых важна прозрачность: учетный взгляд на объяснимый искусственный интеллект (XAI)» . Журнал управления записями . 30 (2): 143–153. дои : 10.1108/RMJ-08-2019-0038 . ISSN 0956-5698 . S2CID 219079717 .
- ^ Ли Ф, Руйс Н, Лу Й (31 декабря 2022 г.). «Этика и ИИ: систематический обзор этических проблем и связанных с ними стратегий проектирования с использованием ИИ в здравоохранении» . ИИ . 4 (1): 28–53. дои : 10.3390/ai4010003 . ISSN 2673-2688 .
- ^ Ховард А. (29 июля 2019 г.). «Регулирование ИИ – стоит ли беспокоиться организациям? | Аянна Ховард» . Обзор менеджмента Слоана MIT . Архивировано из оригинала 14 августа 2019 г. Проверено 14 августа 2019 г.
- ^ «Доверие к искусственному интеллекту: исследование пяти стран» (PDF) . КПМГ . Март 2021.
- ^ Бастин Р., Ванц Дж. (июнь 2017 г.). «Общие правила защиты данных, межотраслевые инновации» (PDF) . Внутри журнала . Делойт. Архивировано (PDF) из оригинала 10 января 2019 г. Проверено 10 января 2019 г.
- ^ «Саммит ООН по искусственному интеллекту направлен на решение проблемы бедности, «больших проблем» человечества » . Новости ООН . 07.06.2017. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ «Искусственный интеллект – Организация экономического сотрудничества и развития» . www.oecd.org . Архивировано из оригинала 22 июля 2019 г. Проверено 26 июля 2019 г.
- ^ Аноним (14 июня 2018 г.). «Европейский альянс ИИ» . Единый цифровой рынок – Европейская комиссия . Архивировано из оригинала 01 августа 2019 г. Проверено 26 июля 2019 г.
- ^ Экспертная группа высокого уровня Европейской комиссии по искусственному интеллекту (26 июня 2019 г.). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формирование цифрового будущего Европы – Европейская комиссия . Архивировано из оригинала 26 февраля 2020 г. Проверено 16 марта 2020 г.
- ^ Фукуда-Парр С., Гиббонс Э. (июль 2021 г.). «Новый консенсус по поводу «этического ИИ»: критика руководящих принципов заинтересованных сторон в области прав человека» . Глобальная политика . 12 (С6): 32–44. дои : 10.1111/1758-5899.12965 . ISSN 1758-5880 .
- ^ «Краткий обзор технической политики ЕС: итоги июля 2019 года» . Центр демократии и технологий . 2 августа 2019 г. Архивировано из оригинала 9 августа 2019 г. Проверено 9 августа 2019 г.
- ^ Кертис С., Гиллеспи Н., Локки С. (24 мая 2022 г.). «Организации, внедряющие ИИ, играют ключевую роль в устранении «идеального шторма» рисков ИИ» . ИИ и этика . 3 (1): 145–153. дои : 10.1007/s43681-022-00163-7 . ISSN 2730-5961 . ПМЦ 9127285 . ПМИД 35634256 . Архивировано из оригинала 15 марта 2023 г. Проверено 29 мая 2022 г.
- ^ Перейти обратно: а б «Почему миру нужен Билль о правах на ИИ» . Файнэншл Таймс . 18 октября 2021 г. Проверено 19 марта 2023 г.
- ^ Челлен Р., Денни Дж., Питт М., Гомпельс Л., Эдвардс Т., Цанева-Атанасова К. (март 2019 г.). «Искусственный интеллект, предвзятость и клиническая безопасность» . Качество и безопасность BMJ . 28 (3): 231–237. doi : 10.1136/bmjqs-2018-008370 . ISSN 2044-5415 . ПМК 6560460 . ПМИД 30636200 .
- ^ Эванс В. (2015). «Постчеловеческие права: измерения трансчеловеческих миров» . Технокультура . 12 (2). дои : 10.5209/rev_TK.2015.v12.n2.49072 .
- ^ Шеляженко Ю. (2017). «Искусственная личная автономия и концепция прав роботов» . Европейский журнал права и политических наук : 17–21. doi : 10.20534/EJLPS-17-1-17-21 . Архивировано из оригинала 14 июля 2018 года . Проверено 10 мая 2017 г.
- ^ Словарь английского языка американского наследия, четвертое издание
- ^ Думен Дж (2023). «Субъект искусственного интеллекта как юридическое лицо» . Закон об информационных и коммуникационных технологиях . 32 (3): 277–278. дои : 10.1080/13600834.2023.2196827 . hdl : 1820/c29a3daa-9e36-4640-85d3-d0ffdd18a62c .
- ^ «Роботы могут требовать законных прав» . Новости Би-би-си . 21 декабря 2006 года. Архивировано из оригинала 15 октября 2019 года . Проверено 3 января 2010 г.
- ^ Хендерсон М. (24 апреля 2007 г.). «Права человека для роботов? Мы увлекаемся» . «Таймс онлайн» . Лондонская «Таймс». Архивировано из оригинала 17 мая 2008 года . Проверено 2 мая 2010 г.
- ^ «Саудовская Аравия дарует гражданство роботу по имени София» . 26 октября 2017 г. Архивировано из оригинала 27 октября 2017 г. Проверено 27 октября 2017 г.
- ^ Винсент Дж. (30 октября 2017 г.). «Притворство, будто даешь роботу гражданство, никому не поможет» . Грань . Архивировано из оригинала 3 августа 2019 года . Проверено 10 января 2019 г.
- ^ Уилкс, Йорик, изд. (2010). Тесное взаимодействие с искусственными спутниками: ключевые социальные, психологические, этические и дизайнерские проблемы . Амстердам: Паб John Benjamins. компании ISBN 978-90-272-4994-4 . OCLC 642206106 .
- ^ Флудас Д. (2024). «К продвинутому ИИ следует относиться так же, как к оружию массового поражения» . ДэниВеб . Архивировано из оригинала 2 июня 2024 года . Проверено 2 июня 2024 г.
Я ожидаю, что споры [о правах ИИ], а не корпоративная жадность или человеческое коварство, могут стать самым серьезным препятствием для создания системы международного правового контроля.
- ^ Макрэ C (сентябрь 2022 г.). «Извлечение уроков из сбоев автономных и интеллектуальных систем: несчастные случаи, безопасность и социотехнические источники риска» . Анализ рисков . 42 (9): 1999–2025 гг. Бибкод : 2022РискА..42.1999М . дои : 10.1111/risa.13850 . ISSN 0272-4332 . ПМИД 34814229 .
- ^ Агарвал А., Эдельман С. (2020). «Функционально эффективный сознательный ИИ без страданий». Журнал искусственного интеллекта и сознания . 7 :39–50. arXiv : 2002.05652 . дои : 10.1142/S2705078520300030 . S2CID 211096533 .
- ^ Томас Метцингер (февраль 2021 г.). «Искусственное страдание: аргумент в пользу глобального моратория на синтетическую феноменологию» . Журнал искусственного интеллекта и сознания . 8 : 43–66. дои : 10.1142/S270507852150003X . S2CID 233176465 .
- ^ Чалмерс Д. (март 2023 г.). «Может ли большая языковая модель быть сознательной?». arXiv : 2303.07103v1 [ Наука информатика ].
- ^ Перейти обратно: а б
- Вайценбаум Дж (1976). Мощь компьютера и человеческий разум . Сан-Франциско: WH Freeman & Company. ISBN 978-0-7167-0464-5 .
- МакКордак П. (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1 , стр. 132–144.
- ^ Перейти обратно: а б Джозеф Вайценбаум , цитируется по McCorduck 2004 , стр. 356, 374–376.
- ^ Каплан А., Хенляйн М. (январь 2019 г.). «Сири, Сири, в моей руке: кто самый справедливый на земле? Об интерпретациях, иллюстрациях и значении искусственного интеллекта». Горизонты бизнеса . 62 (1): 15–25. дои : 10.1016/j.bushor.2018.08.004 . S2CID 158433736 .
- ^ Перейти обратно: а б Хиббард Б. (17 ноября 2015 г.). «Этический искусственный интеллект». arXiv : 1411.1373 [ cs.AI ].
- ^ Дэвис А. (29 февраля 2016 г.). «Беспилотный автомобиль Google стал причиной первой аварии» . Проводной . Архивировано из оригинала 7 июля 2019 года . Проверено 26 июля 2019 г.
- ^ Левин С. , Вонг Дж.К. (19 марта 2018 г.). «Беспилотный Uber убил женщину в Аризоне в первой смертельной аварии с участием пешехода» . Хранитель . Архивировано из оригинала 26 июля 2019 года . Проверено 26 июля 2019 г.
- ^ «Кто несет ответственность, если беспилотный автомобиль попадает в аварию?» . Футуризм . 30 января 2018 г. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ «Аварии с автономными автомобилями: кто или что виноват?» . Знания@Уортон . Право и государственная политика. Подкасты Radio Business Северной Америки. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ Делбридж Э. «Беспилотные автомобили сошли с ума» . Баланс . Архивировано из оригинала 29 мая 2019 г. Проверено 29 мая 2019 г.
- ^ Стилго Дж. (2020), «Кто убил Элейн Герцберг?» , Кто продвигает инновации? , Чам: Springer International Publishing, стр. 1–6, номер документа : 10.1007/978-3-030-32320-2_1 , ISBN. 978-3-030-32319-6 , S2CID 214359377 , заархивировано из оригинала 18 марта 2021 г. , получено 11 ноября 2020 г.
- ^ Максмен А (октябрь 2018 г.). «Дилеммы беспилотных автомобилей показывают, что моральный выбор не является универсальным» . Природа . 562 (7728): 469–470. Бибкод : 2018Natur.562..469M . дои : 10.1038/d41586-018-07135-0 . ПМИД 30356197 .
- ^ «Правила для беспилотных автомобилей» . GOV.UK. Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ «Автоматизированное вождение: законодательные и нормативные меры – CyberWiki» . www.cyberlaw.stanford.edu . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ «Автономные транспортные средства | Принятое законодательство о беспилотных транспортных средствах» . www.ncsl.org . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ Эциони А, Эциони О (01 декабря 2017 г.). «Включение этики в искусственный интеллект» . Журнал этики . 21 (4): 403–418. дои : 10.1007/s10892-017-9252-2 . ISSN 1572-8609 . S2CID 254644745 .
- ↑ Призыв к дебатам о роботах-убийцах. Архивировано 7 августа 2009 г. в Wayback Machine , Джейсон Палмер, репортер по науке и технологиям, BBC News, 3 августа 2009 г.
- ↑ Новый отчет Science, финансируемый ВМФ, предупреждает о том, что военные роботы станут «Терминаторами». Архивировано 28 июля 2009 г. в Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
- ^ Перейти обратно: а б Отчет ВМФ предупреждает о восстании роботов и предполагает сильный моральный компас. Архивировано 4 июня 2011 г. в Wayback Machine Джозефом Л. Флэтли на сайте engadget.com, 18 февраля 2009 г.
- ^ Президентская комиссия AAAI по долгосрочному исследованию будущего искусственного интеллекта на 2008–2009 годы. Архивировано 28 августа 2009 г. в Wayback Machine , Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
- ^ Соединенные Штаты. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC 1126650738 .
- ↑ Новый отчет, финансируемый ВМФ, предупреждает о том, что боевые роботы станут «Терминаторами». Архивировано 28 июля 2009 г. в Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
- ^ Амбрелло С., Торрес П., Де Беллис А.Ф. (март 2020 г.). «Будущее войны: может ли смертоносное автономное оружие сделать конфликт более этичным?» . ИИ и общество . 35 (1): 273–282. дои : 10.1007/s00146-019-00879-x . hdl : 2318/1699364 . ISSN 0951-5666 . S2CID 59606353 . Архивировано из оригинала 05 января 2021 г. Проверено 11 ноября 2020 г.
- ^ Хеллстрём Т. (июнь 2013 г.). «О моральной ответственности военных роботов». Этика и информационные технологии . 15 (2): 99–107. дои : 10.1007/s10676-012-9301-2 . S2CID 15205810 . ПроКвест 1372020233 .
- ^ Митра А (5 апреля 2018 г.). «Мы можем научить ИИ распознавать добро и зло, а затем использовать его, чтобы научить нас морали» . Кварц . Архивировано из оригинала 26 июля 2019 г. Проверено 26 июля 2019 г.
- ^ Домингес Дж. (23 августа 2022 г.). «Южная Корея разрабатывает новые малозаметные дроны для поддержки боевых самолетов» . Джапан Таймс . Проверено 14 июня 2023 г.
- ^ «Принципы ИИ» . Институт будущего жизни . 11 августа 2017 г. Архивировано из оригинала 11 декабря 2017 г. Проверено 26 июля 2019 г.
- ^ Перейти обратно: а б Зак Масгрейв и Брайан В. Робертс (14 августа 2015 г.). «Почему искусственный интеллект слишком легко превратить в оружие – The Atlantic» . Атлантика . Архивировано из оригинала 11 апреля 2017 г. Проверено 6 марта 2017 г.
- ^ Кот Закшевский (27 июля 2015 г.). «Маск и Хокинг предупреждают об оружии искусственного интеллекта» . ВСЖ . Архивировано из оригинала 28 июля 2015 г. Проверено 4 августа 2017 г.
- ^ «Потенциальные риски, связанные с передовым искусственным интеллектом» . Открытая благотворительность . 11 августа 2015 года . Проверено 7 апреля 2024 г.
- ^ Брэндон Вильяроло. «Международный саммит военного ИИ завершился обещанием 60 государств» . www.theregister.com . Проверено 17 февраля 2023 г.
- ^ Перейти обратно: а б Маркофф Дж. (25 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс . Архивировано из оригинала 25 февраля 2017 года . Проверено 24 февраля 2017 г.
- ^ Мюльхаузер, Люк и Луи Хелм. 2012. «Взрыв интеллекта и машинная этика». Архивировано 7 мая 2015 г. в Wayback Machine . В книге «Гипотезы сингулярности: научная и философская оценка» под редакцией Амнона Идена, Джонни Сёракера, Джеймса Х. Мура и Эрика Стейнхарта. Берлин: Шпрингер.
- ^ Бостром, Ник. 2003. «Этические проблемы современного искусственного интеллекта». Архивировано 8 октября 2018 г. в Wayback Machine . В книге «Когнитивные, эмоциональные и этические аспекты принятия решений у людей и искусственного интеллекта» под редакцией Ивы Смит и Джорджа Э. Ласкера, 12–17. Том. 2. Виндзор, Онтарио: Международный институт перспективных исследований в области системных исследований / Кибернетика.
- ^ Бостром Н. (2017). Суперинтеллект: пути, опасности, стратегии . Оксфорд, Соединенное Королевство: Издательство Оксфордского университета. ISBN 978-0-19-967811-2 .
- ^ Амбрелло С., Баум С.Д. (01.06.2018). «Оценка будущих нанотехнологий: чистое социальное воздействие атомарно точного производства» . Фьючерсы . 100 : 63–73. дои : 10.1016/j.futures.2018.04.007 . hdl : 2318/1685533 . ISSN 0016-3287 . S2CID 158503813 . Архивировано из оригинала 9 мая 2019 г. Проверено 29 ноября 2020 г.
- ^ Юдковский, Элиэзер. 2011. «Сложные системы ценностей в дружественном искусственном интеллекте». Архивировано 29 сентября 2015 г. в Wayback Machine . В Шмидхубере, Ториссоне и Луксе, 2011, 388–393.
- ^ Рассел С. (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема управления . США: Викинг. ISBN 978-0-525-55861-3 . OCLC 1083694322 .
- ^ Ямпольский Р.В. (01.03.2020). «Непредсказуемость ИИ: о невозможности точно предсказать все действия более умного агента» . Журнал искусственного интеллекта и сознания . 07 (1): 109–118. дои : 10.1142/S2705078520500034 . ISSN 2705-0785 . S2CID 218916769 . Архивировано из оригинала 18 марта 2021 г. Проверено 29 ноября 2020 г.
- ^ Уоллах В., Валлор С. (17 сентября 2020 г.), «Моральные машины: от согласования ценностей к воплощенной добродетели» , Этика искусственного интеллекта , Oxford University Press, стр. 383–412, doi : 10.1093/oso/9780190905033.003.0014 , ISBN 978-0-19-090503-3 , заархивировано из оригинала 08 декабря 2020 г. , получено 29 ноября 2020 г.
- ^ Зонт С (2019). «Выгодная координация искусственного интеллекта посредством ценностно-чувствительного подхода к проектированию» . Большие данные и когнитивные вычисления . 3 (1): 5. дои : 10.3390/bdcc3010005 . hdl : 2318/1685727 .
- ^ Флориди Л., Коулс Дж., Кинг Т.К., Таддео М. (2020). «Как создать искусственный интеллект для общественного блага: семь основных факторов» . Наука и инженерная этика . 26 (3): 1771–1796. дои : 10.1007/s11948-020-00213-5 . ISSN 1353-3452 . ПМК 7286860 . ПМИД 32246245 .
- ^ Фигерман С (28 сентября 2016 г.). «Facebook, Google и Amazon создают группу, чтобы облегчить проблемы искусственного интеллекта» . CNNMoney . Архивировано из оригинала 17 сентября 2020 года . Проверено 18 августа 2020 г.
- ^ Слота СК, Флейшманн КР, Гринберг С, Верма Н, Каммингс Б, Ли Л, Шенефиел С (2023). «Расположение работы этики искусственного интеллекта» . Журнал Ассоциации информационных наук и технологий . 74 (3): 311–322. дои : 10.1002/asi.24638 . ISSN 2330-1635 . S2CID 247342066 .
- ^ «Этические рекомендации для заслуживающего доверия ИИ» . Формирование цифрового будущего Европы – Европейская комиссия . Европейская комиссия. 08.04.2019. Архивировано из оригинала 20 февраля 2020 г. Проверено 20 февраля 2020 г.
- ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию | Формирование цифрового будущего Европы» . 19 февраля 2020 г. Архивировано из оригинала 6 марта 2021 г. Проверено 18 марта 2021 г.
- ^ «Обсерватория политики ОЭСР в области искусственного интеллекта» . Архивировано из оригинала 8 марта 2021 г. Проверено 18 марта 2021 г.
- ^ Рекомендации по этике искусственного интеллекта . ЮНЕСКО. 2021.
- ^ «Государства-члены ЮНЕСКО принимают первое глобальное соглашение по этике ИИ» . Хельсинки Таймс . 2021-11-26 . Проверено 26 апреля 2023 г.
- ^ «Дорожная карта администрации Обамы по политике в области искусственного интеллекта» . Гарвардское деловое обозрение . 21 декабря 2016 г. ISSN 0017-8012 . Архивировано из оригинала 22 января 2021 г. Проверено 16 марта 2021 г.
- ^ «Ускорение лидерства Америки в области искусственного интеллекта – Белый дом» . trumpwhitehouse.archives.gov . Архивировано из оригинала 25 февраля 2021 г. Проверено 16 марта 2021 г.
- ^ «Запрос комментариев по проекту Меморандума руководителям исполнительных ведомств и ведомств «Руководство по регулированию применения искусственного интеллекта» » . Федеральный реестр . 13 января 2020 г. Архивировано из оригинала 25 ноября 2020 г. Проверено 28 ноября 2020 г.
- ^ «CCC предлагает проект 20-летней дорожной карты искусственного интеллекта; ищет комментарии» . HPCwire . 14 мая 2019 г. Архивировано из оригинала 18 марта 2021 г. Проверено 22 июля 2019 г.
- ^ «Запросить комментарии к проекту: 20-летняя дорожная карта сообщества по исследованиям искусственного интеллекта в США » Блог CCC» . 13 мая 2019 г. Архивировано из оригинала 14 мая 2019 г. Проверено 22 июля 2019 г.
- ^ «Нечеловеческая партия» . 2021. Архивировано из оригинала 20 сентября 2021 г. Проверено 19 сентября 2021 г.
- ^ (in Russian) Интеллектуальные правила Archived 2021-12-30 at the Wayback Machine — Kommersant , 25.11.2021
- ^ Грейс К., Сальватье Дж., Дефо А., Чжан Б., Эванс О. (03.05.2018). «Когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ». arXiv : 1705.08807 [ cs.AI ].
- ^ «Китай хочет формировать глобальное будущее искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 20 ноября 2020 г. Проверено 29 ноября 2020 г.
- ^ Флориди Л., Коулс Дж., Бельтраметти М., Шатила Р., Чазеранд П., Дигнум В., Люэтге К., Мадлен Р., Пагалло Ю., Росси Ф., Шафер Б. (01.12.2018). «AI4People — этическая основа хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации» . Разум и машины . 28 (4): 689–707. дои : 10.1007/s11023-018-9482-5 . ISSN 1572-8641 . ПМК 6404626 . ПМИД 30930541 .
- ^ «Джоанна Дж. Брайсон» . ПРОВОДНОЙ . Проверено 13 января 2023 г.
- ^ «Открывается новый научно-исследовательский институт искусственного интеллекта» . 20.11.2017. Архивировано из оригинала 18 сентября 2020 г. Проверено 21 февраля 2021 г.
- ^ Джеймс Дж. Хьюз, Лаграндер, Кевин, ред. (15 марта 2017 г.). Пережить век машин: интеллектуальные технологии и трансформация человеческого труда . Чам, Швейцария: Пэлгрейв Макмиллан Чам. ISBN 978-3-319-51165-8 . OCLC 976407024 . Архивировано из оригинала 18 марта 2021 года . Проверено 29 ноября 2020 г. .
- ^ Данахер, Джон (2019). Автоматизация и утопия: процветание человека в мире без труда . Кембридж, Массачусетс: Издательство Гарвардского университета. ISBN 978-0-674-24220-3 . OCLC 1114334813 .
- ^ «Официально открыт Институт этики искусственного интеллекта ТУМ» . www.tum.de. Архивировано из оригинала 10 декабря 2020 г. Проверено 29 ноября 2020 г.
- ^ Связь ПК (25 января 2019 г.). «Гарвард работает над включением этики в учебную программу по информатике» . Гарвардская газета . Проверено 06 апреля 2023 г.
- ^ «Принципы ИИ» . Институт будущего жизни . Проверено 06 апреля 2023 г.
- ^ Ли Дж (08 февраля 2020 г.). «Когда в нашей технологии закодирована предвзятость» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 26 марта 2022 г. Проверено 22 декабря 2021 г.
- ^ Перейти обратно: а б «Как одна конференция охватила разнообразие» . Природа . 564 (7735): 161–162. 2018-12-12. дои : 10.1038/d41586-018-07718-x . ПМИД 31123357 . S2CID 54481549 .
- ^ Русе К. (30 декабря 2020 г.). «Премия Good Tech Awards 2020» . Нью-Йорк Таймс . ISSN 0362-4331 . Архивировано из оригинала 21 декабря 2021 г. Проверено 21 декабря 2021 г.
- ^ Ложа П (2014). «Возвращение к аргументу Лейбница Милля против механического материализма» . Ergo, философский журнал открытого доступа . 1 (20201214). дои : 10.3998/ergo.12405314.0001.003 . hdl : 2027/spo.12405314.0001.003 . ISSN 2330-4014 .
- ^ Брингсйорд С., Говиндараджулу Н.С. (2020), «Искусственный интеллект» , в Zalta EN, Nodelman U (ред.), Стэнфордская энциклопедия философии (изд. лета 2020 г.), Лаборатория метафизических исследований, Стэнфордский университет , получено 8 декабря 2023 г.
- ^ Младший ХК (29 апреля 1999 г.). Информационные технологии и парадокс производительности: оценка ценности инвестиций в ИТ . Издательство Оксфордского университета. ISBN 978-0-19-802838-3 .
- ^ Азимов И (2008). Я, Робот . Нью-Йорк: Бантам. ISBN 978-0-553-38256-3 .
- ^ Брайсон Дж., Диамантис М., Грант Т. (сентябрь 2017 г.). «Из народа, для и посредством народа: правовая лакуна синтетических лиц» . Искусственный интеллект и право . 25 (3): 273–291. дои : 10.1007/s10506-017-9214-9 .
- ^ «Принципы робототехники» . EPSRC Великобритании. Сентябрь 2010 г. Архивировано из оригинала 1 апреля 2018 г. Проверено 10 января 2019 г.
- ^ Юдковский Э. (июль 2004 г.). «Зачем нам нужен дружественный ИИ» . 3 закона небезопасны . Архивировано из оригинала 24 мая 2012 года.
- ^ Александр I (март 2017 г.). «Партнеры людей: реалистичная оценка роли роботов в обозримом будущем» . Журнал информационных технологий . 32 (1): 1–9. дои : 10.1057/s41265-016-0032-4 . ISSN 0268-3962 . S2CID 5288506 .
- ↑ Развивающиеся роботы учатся лгать друг другу. Архивировано 28 августа 2009 г. в Wayback Machine , Popular Science, 18 августа 2009 г.
- ^ Бассетт С., Стейнмюллер Э., Восс Г. «Лучше выдуманный: взаимное влияние научной фантастики и инноваций» . Нэста . Проверено 3 мая 2024 г.
- ^ Веласко Дж (04 мая 2020 г.). «Научная фантастика: зеркало будущего человечества» . ИДЕИ . Проверено 8 декабря 2023 г.
- ^ Ходжес, А. (2014), Алан Тьюринг: Загадка , Винтаж, Лондон, стр. 334
- ^ AM Тьюринг (1936). «О вычислимых числах с применением к проблеме Entscheidungs». в Трудах Лондонского математического общества , 2 с. том. 42 (1936–1937), стр. 230–265.
- ^ «Любовь, смерть и роботы 2 сезон, краткое содержание 1 серии — «Автоматизированное обслуживание клиентов» » . Готовый устойчивый разрез . 14 мая 2021 г. Архивировано из оригинала 21 декабря 2021 г. Проверено 21 декабря 2021 г.
- ^ Кейв, Стивен, Дихал, Канта, Диллон, Сара, ред. (14 февраля 2020 г.). Повествования об искусственном интеллекте: история творческого мышления об интеллектуальных машинах (Первое изд.). Оксфорд: Издательство Оксфордского университета. ISBN 978-0-19-258604-9 . OCLC 1143647559 . Архивировано из оригинала 18 марта 2021 года . Проверено 11 ноября 2020 г.
- ^ Джерреат-Пул А (1 февраля 2020 г.). «Больной, медленный, киборг: Crip Future в Mass Effect» . Игровые исследования . 20 . ISSN 1604-7982 . Архивировано из оригинала 9 декабря 2020 года . Проверено 11 ноября 2020 г.
- ^ « Detroit: Become Human» бросит вызов вашей морали и вашей человечности» . Журнал «Кофе или умри» . 06.08.2018. Архивировано из оригинала 9 декабря 2021 г. Проверено 7 декабря 2021 г.
- ^ Серки Д., Уорвик К. (2008), «Перепроектирование человечества: рост киборгов, желаемая цель?» , Философия и дизайн , Дордрехт: Springer Нидерланды, стр. 185–195, doi : 10.1007/978-1-4020-6591-0_14 , ISBN 978-1-4020-6590-3 , заархивировано из оригинала 18 марта 2021 г. , получено 11 ноября 2020 г.
- ^ Пещера S, Дихал К. (6 августа 2020 г.). «Белизна ИИ» . Философия и технология . 33 (4): 685–703. дои : 10.1007/s13347-020-00415-6 . S2CID 225466550 .
Внешние ссылки [ править ]
- Этика искусственного интеллекта в Интернет-энциклопедии философии
- Этика искусственного интеллекта и робототехники в Стэнфордской энциклопедии философии
- Рассел С., Хауэрт С., Альтман Р., Велосо М. (май 2015 г.). «Робототехника: Этика искусственного интеллекта» . Природа . 521 (7553): 415–418. Бибкод : 2015Natur.521..415. . дои : 10.1038/521415а . ПМИД 26017428 . S2CID 4452826 .
- BBC News: Игры обретут собственную жизнь
- Кто боится роботов? Архивировано 22 марта 2018 г. в Wayback Machine , статье о страхе человечества перед искусственным интеллектом.
- Краткая история компьютерной этики
- Глобальная инвентаризация руководящих указаний по этике ИИ от Algorithmwatch
- Хагендорф Т. (март 2020 г.). «Этика этики ИИ: оценка руководящих принципов» . Разум и машины . 30 (1): 99–120. arXiv : 1903.03425 . дои : 10.1007/s11023-020-09517-8 . S2CID 72940833 .
- Шелудько М. (декабрь 2023 г.). Этические аспекты искусственного интеллекта: вызовы и императивы . Блог разработки программного обеспечения.
- Эйсиковиц Н. «ИИ — это экзистенциальная угроза, но не так, как вы думаете» . Научный американец . Проверено 4 марта 2024 г.