top of page

AIACT.IN

India's inaugral private AI regulation proposal, authored by Abhivardhan.

What is aiact.in?

AIACT.IN (also named as the Draft Artificial Intelligence (Development & Regulation) Bill, 2023) is India's first private proposal on the regulation of artificial intelligence technologies in India.

This bill was drafted and proposed by our Founder, Abhivardhan.

In addition, a New Artificial Intelligence Strategy for India, 2023 was also proposed, which was authored by Abhivardhan & Akash Manwani.

  • Version 3.0, June 17, 2024 [Read]

    Version 2.0, March 14, 2024 [Read]

    Version 1.0 (Original), November 7, 2023 [Read]

  • Version 1.0 (Original), November 7, 2023 [Read]

Navigation guide

Draft Artificial Intelligence (Development & Regulation) Act

Version 3.0

June 17, 2024

Author: Abhivardhan, Managing Partner, Indic Pacific Legal Research

AIACT.IN Video Explainer

Hang on! If you think the AIACT.IN is a long doc, here is a detailed video explainer of AIACT.IN Version 2 by the author of this draft, Abhivardhan.

Chapter I

Chapter I: PRELIMINARY


Section 1 - Short Title and Commencement


(1) This Act may be called the Artificial Intelligence (Development & Regulation) Act, 2023.

(2) It shall come into force on such date as the Central Government may, by notification in the Official Gazette, appoint and different dates may be appointed for different provisions of this Act and any reference in any such provision to the commencement of this Act shall be construed as a reference to the coming into force of that provision.


 

Section 2 – Definitions


[Please note: we have not provided all definitions, which may be required in this bill. We have only provided those definitions which are more essential, in signifying the legislative intent of the bill.]


In this Bill, unless the context otherwise requires—​


(a)   “Artificial Intelligence”, “AI”, “AI technology”, “artificial intelligence technology”, “artificial intelligence application”, “artificial intelligence system” and “AI systems” mean an information system that employs computational, statistical, or machine-learning techniques to generate outputs based on given inputs. Such a system constitutes a diverse class of technology that includes various sub-categories of technical, commercial, and sectoral nature, in accordance with the means of classification set forth in Section 3.

(b)   “AI-Generated Content” means content, physical or digital that has been created or significantly modified by an artificial intelligence technology, which includes, but is not limited to text, images, audio, and video created through a variety of techniques, subject to the test case or the use case of the artificial intelligence application;

(c)    “Algorithmic Bias” includes –

(i)    the inherent technical limitations within an artificial intelligence product, service or system that lead to systematic and repeatable errors in processing, analysis, or output generation, resulting in outcomes that deviate from objective, fair, or intended results; and

(ii)   the technical limitations within artificial intelligence products, services and systems that emerge from the design, development, and operational stages of AI, including but not limited to:

(a)    programming errors;

(b)   flawed algorithmic logic; and

(c)    deficiencies in model training and validation, including but not limited to:

                              (1)      the incomplete or deficient data used for model training;

(d)   “Appellate Tribunal” means the Telecom Disputes Settlement and Appellate Tribunal established under section 14 of the Telecom Regulatory Authority of India Act, 1997;

(e)    “Business end-user” means an end-user that is -

(i)             engaged in a commercial or professional activity and uses an AI system in the course of such activity; or

(ii)            a government agency or public authority that uses an AI system in the performance of its official functions or provision of public services.

(f)    “Combinations of intellectual property protections” means the integrated application of various intellectual property rights, such as copyrights, patents, trademarks, trade secrets, and design rights, to safeguard the unique features and components of artificial intelligence systems;

(g)   “Content Provenance” means the identification, tracking, and watermarking of AI-generated content using a set of techniques to establish its origin, authenticity, and history, including:

(i)    The source data, models, and algorithms used to generate the content;

(ii)   The individuals or entities involved in the creation, modification, and distribution of the content;

(iii) The date, time, and location of content creation and any subsequent modifications;

(iv)  The intended purpose, context, and target audience of the content;

(v)   Any external content, citations, or references used in the creation of the AI-generated content, including the provenance of such external sources; and

(vi)  The chain of custody and any transformations or iterations the content undergoes, forming a content and citation/reference loop that enables traceability and accountability.

(h)   “Corporate Governance” means the system of rules, practices, and processes by which an organization is directed and controlled, encompassing the mechanisms through which companies, and organisations, ensure accountability, fairness, and transparency in their relationships with stakeholders including but not limited to employees, shareholders, customers, and the public.

(i)    “Data” means a representation of information, facts, concepts, opinions or instructions in a manner suitable for communication, interpretation or processing by human beings or by automated or augmented means;

(j)    “Data Fiduciary” means any person who alone or in conjunction with other persons determines the purpose and means of processing of personal data;

(k)   “Data portability” means the ability of a data principal to request and receive their personal data processed by a data fiduciary in a structured, commonly used, and machine-readable format, and to transmit that data to another data fiduciary, where:

(i)    The personal data has been provided to the data fiduciary by the data principal;

(ii)   The processing is based on consent or the performance of a contract; and

(iii)  The processing is carried out by automated means.

(l)    “Data Principal” means the individual to whom the personal data relates and where such individual is—

(i)             a child, includes the parents or lawful guardian of such a child;

(ii)            a person with disability, includes her lawful guardian, acting on her behalf;

(m)  “Data Protection Officer” means an individual appointed by the Significant Data Fiduciary under clause (a) of sub-section (2) of section 10 of the Digital Personal Data Protection Act, 2023;

(n)   “Digital Office” means an office that adopts an online mechanism wherein the proceedings, from receipt of intimation or complaint or reference or directions or appeal, as the case may be, to the disposal thereof, are conducted in online or digital mode;

(o)   “Digital personal data” means personal data in digital form;

(p)   “Digital Public Infrastructure” or “DPI” means the underlying digital platforms, networks, and services that enable the delivery of essential digital services to the public, including but not limited to:

(i)    Digital identity systems that provide secure and verifiable identification for individuals and businesses;

(ii)   Digital payment systems that facilitate efficient, transparent, and inclusive financial transactions;

(iii)  Data exchange platforms that enable secure and interoperable sharing of data across various sectors and stakeholders;

(iv)  Digital registries and databases that serve as authoritative sources of information for various public and private services;

(v)   Open application programming interfaces (APIs) and standards that promote innovation, interoperability, and collaboration among different actors in the digital ecosystem.

(q)   “End-user” means -

(i)     an individual who ultimately uses or is intended to ultimately use an AI system, directly or indirectly, for personal, domestic or household purposes; or

(ii)    an entity, including a business or organization, that uses an AI system to provide or offer a product, service, or experience to individuals, whether for a fee or free of charge.

(r)    “Knowledge asset” includes, but is not limited to:

(i)    Intellectual property rights including but not limited to patents, copyrights, trademarks, and industrial designs;

(ii)   Documented knowledge, including but not limited to research reports, technical manuals and industrial practices & standards;

(iii)  Tacit knowledge and expertise residing within the organization’s human capital, such as specialized skills, experiences, and know-how;

(iv)  Organizational processes, systems, and methodologies that enable the effective capture, organization, and utilization of knowledge;

(v)   Customer-related knowledge, such as customer data, feedback, and insights into customer needs and preferences;

(vi)  Knowledge derived from data analysis, including patterns, trends, and predictive models; and

(vii)Collaborative knowledge generated through cross-functional teams, communities of practice, and knowledge-sharing initiatives.

(s)    “Knowledge management” means the systematic processes and methods employed by organisations to capture, organize, share, and utilize knowledge assets related to the development, deployment, and regulation of artificial intelligence systems;

(t)    “IAIC” means Indian Artificial Intelligence Council, a statutory and regulatory body established to oversee the development & regulation of artificial intelligence systems and coordinate artificial intelligence governance across government bodies, ministries, and departments;

(u)   “Inherent Purpose”, and “Intended Purpose” means the underlying technical objective for which an artificial intelligence technology is designed, developed, and deployed, and that it encompasses the specific tasks, functions, and capabilities that the artificial intelligence technology is intended to perform or achieve;

(v)   “Insurance Policy” means measures and requirements concerning insurance for research & development, production, and implementation of artificial intelligence technologies;

(w)  “Interoperability considerations” means the technical, legal, and operational factors that enable artificial intelligence systems to work together seamlessly, exchange information, and operate across different platforms and environments, which include:

(i)    Ensuring that the combinations of intellectual property protections, including but not limited to copyrights, patents, trademarks, and design rights, do not unduly hinder the interoperability of AI systems and their ability to access and use data and knowledge assets necessary for their operation and improvement;

(ii)   Balancing the need for intellectual property protections to incentivize innovation in AI with the need for transparency, explainability, and accountability in AI systems, particularly when they are used in decision-making processes that affect individuals and public good;

(iii) Developing technical standards, application programming interfaces (APIs), and other mechanisms that facilitate the seamless integration and communication between AI systems, while respecting intellectual property rights and maintaining the security and integrity of the systems;

(iv)  Addressing the legal and ethical implications of using copyright-protected works including but not limited to music, images, and text, in the training of AI models, and ensuring that such use is consistent with existing frameworks of intellectual property rights; and

(v)   Promoting the development of open and interoperable AI frameworks, libraries, and tools that enable developers to build upon existing AI technologies and create new applications, while respecting intellectual property rights and fostering a vibrant and competitive AI ecosystem.

(x)   “Open Source Software” means computer software that is distributed with its source code made available and licensed with the right to study, change, and distribute the software to anyone and for any purpose.

(y)   “National Registry of Artificial Intelligence Use Cases” means a national-level digitised registry of use cases of artificial intelligence technologies based on their technical, commercial & risk-based features, maintained by the Central Government for the purposes of standardisation and certification of use cases of artificial intelligence technologies;

(z)   “Person” includes—

(i)             an individual;

(ii)            a Hindu undivided family;

(iii)          a company;

(iv)           a firm;

(v)            an association of persons or a body of individuals, whether incorporated or not;

(vi)           the State; and

(vii)         every artificial juristic person, not falling within any of the preceding sub-clauses including otherwise referred to in sub-section (r);

(aa) “Post-Deployment Monitoring” means all activities carried out by Data Fiduciaries or third-party providers of AI systems to collect and review experience gained from the use of the artificial intelligence systems they place on the market or put into service

(bb)“Quality Assessment” means the evaluation and determination of the quality of AI systems based on their technical, ethical, and commercial aspects;

(cc) “Significant Data Fiduciary” means any Data Fiduciary or class of Data Fiduciaries as may be notified by the Central Government under section 10 of the Digital Personal Data Protection Act, 2023;

(dd)"Systemically Significant Digital Enterprise" (SSDE) means an entity classified as such under Chapter II of the Digital Competition Act, 2024[1], based on:

(i)    The quantitative and qualitative criteria specified in Section 5 of the Digital Competition Act, 2024; or

(ii)   The designation by the Competition Commission of India under Section 6 of the Digital Competition Act, 2024, due to the entity's significant presence in the relevant core digital service.

(ee) “Sociotechnical” means the recognition that artificial intelligence systems are not merely technical artifacts but are embedded within broader social contexts, organizational structures, and human-technology interactions, necessitating the consideration and harmonization of both social and technical aspects to ensure responsible and effective AI governance;

(ff)   “State” shall be construed as the State defined under Article 12 of the Constitution of India;

(gg)         “Strategic sector” means a strategic sector as defined in the Foreign Exchange Management (Overseas Investment) Directions, 2022, and includes any other sector or sub-sector as deemed fit by the Central Government;

(hh)         “training data” means data used for training an AI system through fitting its learnable parameters, which includes the weights of a neural network;

(ii)   “testing data” means data used for providing an independent evaluation of the artificial intelligence system subject to training and validation to confirm the expected performance of that artificial intelligence technology before its placing on the market or putting into service;

(jj)   “use case” means a specific application of an artificial intelligence technology, subject to their inherent purpose, to solve a particular problem or achieve a desired outcome;

(kk)“Whole-of-Government Approach” means a collaborative and integrated method of governance where all government entities, including ministries, departments, and agencies, work in a coordinated manner to achieve unified policy objectives, optimize resource utilization, and deliver services effectively to the public.


[1] It is assumed that the Draft Digital Competition Act, 2024 proposed to the Ministry of Corporate Affairs in March 2024 is in force. 

Chapter II

Chapter II: CATEGORIZATION AND PROHIBITION


Section 3 - Classification of Artificial Intelligence

(1)   All artificial intelligence technologies are categorised on the basis of the means of classification provided as follows – 

 

(a)    Conceptual methods of classification: These methods as described in Section 4 categorize artificial intelligence technologies through a conceptual assessment of their utilization, development, maintenance, and proliferation to examine & recognise their inherent purpose. These methods include:

(1)   Issue-to-Issue Concept Classification (IICC)

(2)   Ethics-Based Concept Classification (EBCC)

(3)   Phenomena-Based Concept Classification (PBCC)

(4)   Anthropomorphism-Based Concept Classification (ABCC)

 

(b)    Technical methods of classification: These methods as described in Section 5 classify artificial intelligence technologies subject to their scale, inherent purpose, technical features and technical limitations. These methods include:

(1)   General Purpose Artificial Intelligence Applications with Multiple Stable Use Cases (GPAIS)

(2)   General Purpose Artificial Intelligence Applications with Multiple Short-Run or Unclear Use Cases (GPAIU)

(3)   Specific-Purpose Artificial Intelligence Applications with One or More Associated Standalone Use Cases or Test Cases (SPAI)

 

(c)    Commercial methods of classification: These methods as described in Section 6 involve the categorisation of commercially and industrially produced and disseminated artificial intelligence technologies subject to their inherent purpose.

(1)   Artificial Intelligence as a Product (AI-Pro)

(2)   Artificial Intelligence as a Service (AIaaS)

(3)   Artificial Intelligence as a Component (AI-Com)

(4)   Artificial Intelligence as a System (AI-S)

(5)   Artificial Intelligence-enabled Infrastructure as a Service (AI-IaaS)

(6)   Artificial Intelligence for Preview (AI-Pre)

 

(d)    Risk-centric methods of classification: These methods as described in Section 7 classify artificial intelligence technologies based on their outcome and impact-based risks.

(1)   Narrow Risk AI Systems

(2)   Medium Risk AI Systems

(3)   High Risk AI Systems

(4)   Unintended Risk AI Systems

 

Section 4 – Conceptual Methods of Classification

(1)    These methods as designated in clause (a) of sub-section (1) of Section 3 categorize artificial intelligence technologies through a conceptual assessment of their utilization, development, maintenance, and proliferation to examine & recognise their inherent purpose. This classification is further categorised as –

(i)    Issue-to-Issue Concept Classification (IICC) as described in sub-section (2)

(ii)   Ethics-Based Concept Classification (EBCC) as described in in sub-section (3)

(iii) Phenomena-Based Concept Classification (PBCC) as described in in sub-section (4)

(iv)  Anthropomorphism-Based Concept Classification (ABCC) as described in in sub-section (5)

 

(2)    Issue-to-Issue Concept Classification (IICC) involves the method to determine the inherent purpose of artificial intelligence technologies on a case-to-case basis, to examine & recognise their inherent purpose on the basis of these factors of assessment: 

(i)    Utilization: Assessing the specific use cases and applications of the AI technology in various domains.

(ii)   Development: Evaluating the design, training, and deployment processes of the AI technology.

(iii) Maintenance: Examining the ongoing support, updates, and modifications made to the AI technology.

(iv)  Proliferation: Analysing the dissemination and adoption of the AI technology across different sectors and user groups.

 

Illustrations

 

(1) An AI system designed for medical diagnostics is classified based on its purpose to enhance patient outcomes. For instance, if an AI software assists doctors in diagnosing diseases more accurately, it is classified under medical AI applications.

(2) An AI system for financial trading is classified based on its purpose to optimize investment strategies. For example, if an AI-driven algorithm analyses market data to recommend stock trades, it is classified under financial AI applications.

 

(3)    Ethics-Based Concept Classification (EBCC) involves the method of recognising the ethics-based relationship of artificial intelligence technologies in sector-specific & sector-neutral contexts, to examine & recognise their inherent purpose on the basis of these factors:

(i)    Utilization: Assessing the ethical implications of AI technology use in specific sectors and across different domains.

(ii)   Development: Evaluating the ethical considerations in the design, training, and deployment of AI technologies.

(iii) Maintenance: Examining the ongoing ethical responsibilities in supporting, updating, and modifying AI technologies.

(iv)  Proliferation: Analyzing the ethical impact of AI technology dissemination and adoption across various sectors and user groups.

 

Illustration

An AI for social media content moderation is assessed based on fairness and bias prevention. For example, if an AI filters hate speech and misinformation on social media platforms, it is classified under content moderation AI with an emphasis on ensuring unbiased and fair treatment of all users’ content.

 

(4)    Phenomena-Based Concept Classification (PBCC) involves the method of addressing rights-based issues associated with the use and dissemination of artificial intelligence technologies to examine & recognise their inherent purpose on the basis of these factors:

(i)    Utilization: Assessing the impact of AI technology use on individual and collective rights in various domains.

(ii)   Development: Evaluating the incorporation of rights-based considerations in the design, training, and deployment of AI technologies.

(iii) Maintenance: Examining the ongoing efforts to protect and uphold rights in the support, updates, and modifications of AI technologies.

(iv)  Proliferation: Analysing the rights-based implications of AI technology dissemination and adoption across different sectors and user groups.

 

Illustrations

 

(1) An AI system that analyses personal data for targeted advertising is classified based on its compliance with data protection rights. For example, an AI that personalizes ads based on user behaviour is classified under advertising AI with data privacy considerations.

(2) An AI used in autonomous vehicles is classified based on its implications for road safety and user rights. For instance, an AI that controls self-driving cars is classified under automotive AI with a focus on safety and user rights.

 

 

(5)    Anthropomorphism-Based Concept Classification (ABCC) involves the method of evaluating scenarios where AI systems ordinarily simulate, imitate, replicate, or emulate human attributes, which include: 

(i)    Autonomy: The ability to operate and make decisions independently, based on a set of corresponding scenarios including but not limited to:

·       Simulation: AI systems model autonomous decision-making processes using computational methods;

·       Imitation: AI systems learn from and reproduce human-like autonomous behaviours;

·       Replication: AI systems accurately reproduce specific human-like autonomous functions;

·       Emulation: AI systems replicate and potentially enhance human-like autonomy;

Illustration

An AI-powered drone delivery system that navigates through urban environments, avoiding obstacles and adapting its route based on real-time traffic conditions to efficiently deliver packages without human intervention.

 

(ii)   Perception: The ability to interpret and understand sensory information from the environment, based on a set of corresponding scenarios including but not limited to:

·       Simulation: AI systems model human-like perception using computational methods;

·       Imitation: AI systems learn from and reproduce specific human-like perceptual processes;

·       Replication: AI systems accurately reproduce specific human-like perceptual abilities;

Illustration

A service robot in a hotel uses computer vision and natural language processing to recognize and greet guests by name, interpret their facial expressions and tone of voice to gauge emotions, and respond appropriately to verbal requests.

 

(iii) Reasoning: The ability to process information, draw conclusions, and solve problems, based on a set of corresponding scenarios including but not limited to:

·       Simulation: AI systems model human-like reasoning using computational methods;

·       Imitation: AI systems learn from and reproduce specific human reasoning patterns;

·       Replication: AI systems accurately reproduce specific human-like reasoning abilities;

·       Emulation: AI systems surpass specific human-like reasoning abilities;

Illustration

A medical diagnosis AI system analyses a patient’s symptoms, medical history, test results and imaging scans. It uses this information to generate a list of probable diagnoses, suggest additional tests to rule out possibilities, and recommend an optimal treatment plan.

 

(iv)  Interaction: The ability to communicate and engage with humans or other AI systems, based on a set of corresponding scenarios including but not limited to:

·       Simulation: AI systems model human-like interaction using computational methods;

·       Imitation: AI systems learn from and reproduce specific human interaction patterns;

·       Replication: AI systems accurately reproduce specific human-like interaction abilities;

·       Emulation: AI systems enhance human-like interaction;

Illustration

An AI-powered virtual assistant engages in natural conversations with users, understanding context and nuance. It asks clarifying questions when needed, provides relevant information or executes tasks, and even interjects with suggestions or prompts.

 

(v)   Adaptation: The ability to learn from experiences and adjust behaviour accordingly, based on a set of corresponding scenarios including but not limited to:

·       Simulation: AI systems model human-like adaptation using computational methods.

·       Imitation: AI systems learn from and reproduce human adaptation behaviours.

·       Replication: AI systems reproduce human-like adaptation abilities, recognizing the inherent complexity.

·       Emulation: AI systems surpass human-like adaptation as an aspirational goal.

Illustration

An AI system for stock trading continuously analyses market trends, world events, and the performance of its own trades. It identifies patterns and correlations, learning which strategies work best in different scenarios. The AI optimizes its trading algorithms and adapts its approach based on accumulated experience, demonstrating adaptive abilities.

 

(vi)  Creativity: The ability to generate novel ideas, solutions, or outputs, based on a set of corresponding scenarios including but not limited to:

·       Simulation: AI systems model human-like creativity using computational methods;

·       Imitation: AI systems learn from and reproduce human creative processes;

·       Replication: AI systems accurately reproduce human-like creative abilities, acknowledging the complexity involved;

·       Emulation: AI systems enhance human-like creativity as a forward-looking objective;

Illustration

An AI music composition tool creates an original symphony. Given a theme and emotional tone, it generates unique melodies, harmonies and instrumentation. It iterates and refines the composition based on aesthetic evaluation models, ultimately producing a piece that is distinct from existing music in its training data.

(6)    Application of Conceptual Methods of Classification: The methods of classification as described in sub-sections (2) to (5) in this Section may be applied in the following aspects of artificial intelligence governance within the scope of the Act:

Section 5 – Technical Methods of Classification

(1)   These methods as designated in clause (b) of sub-section (1) of Section 3 classify artificial intelligence technologies subject to their scale, inherent purpose, technical features and technical limitations such as –

(i)    General Purpose Artificial Intelligence Applications with Multiple Stable Use Cases (GPAIS) as described in sub-section (2);

(ii)   General Purpose Artificial Intelligence Applications with Multiple Short-Run or Unclear Use Cases (GPAIU) as described in sub-section (3);

(iii) Specific-Purpose Artificial Intelligence Applications with One or More Associated Standalone Use Cases or Test Cases (SPAI) as described in sub-section (4);

 

(2)   General Purpose Artificial Intelligence Systems with Multiple Stable Use Cases (GPAIS) are classified based on a technical method that evaluates the following factors in accordance with relevant sector-specific and sector-neutral industrial standards:

(i)    Scale: The ability to operate effectively and consistently across a wide range of domains, handling large volumes of data and users.

(ii)   Inherent Purpose: The capacity to be adapted and applied to multiple well-defined use cases within and across sectors.

(iii) Technical Features: Robust and flexible architectures that enable reliable performance on diverse tasks and requirements.

(iv)  Technical Limitations: Potential challenges in maintaining consistent performance and compliance with sector-specific regulations across the full scope of intended use cases.

Illustration

An AI system used in healthcare for diagnostics, treatment recommendations, and patient management. This AI consistently performs well in various healthcare settings, adhering to medical standards and providing reliable outcomes. It is characterized by its large scale in handling diverse medical data and serving multiple institutions, its inherent purpose of assisting healthcare professionals in decision-making and care improvement, robust technical architecture and accuracy while adhering to privacy and security standards, and potential limitations in edge cases or rare conditions.

(3)   General Purpose Artificial Intelligence Systems with Multiple Short-Run or Unclear Use Cases (GPAIU) are classified based on a technical method that evaluates the following factors in accordance with relevant sector-specific and sector-neutral industrial standards:

(i)             Scale: The ability to address specific short-term needs or exploratory applications within relevant sectors at a medium scale.

(ii)            Inherent Purpose: Providing targeted solutions for emerging or temporary use cases, with the potential for future adaptation and expansion.

(iii)          Technical Features: Modular and adaptable architectures enabling rapid development and deployment in response to evolving requirements.

(iv)           Technical Limitations: Uncertainties regarding long-term viability, scalability, and compliance with changing industry standards and regulations.

Illustration

An AI system used in experimental smart city projects for traffic management, pollution monitoring, and public safety. Deployed at a medium scale in specific locations for limited durations, its inherent purpose is testing and validating AI feasibility and effectiveness in smart city applications. It features a modular, adaptable technical architecture to accommodate changing requirements and infrastructure integration, but faces potential limitations in scalability, interoperability, and long-term performance due to the experimental nature.

(4)   Specific-Purpose Artificial Intelligence Systems with One or More Associated Standalone Use Cases or Test Cases (SPAI) are classified based on a technical method that evaluates the following factors:

(i)             Scale: The ability to address specific, well-defined problems or serve as proof-of-concept implementations at a small scale.

(ii)            Inherent Purpose: Providing specialized solutions for individual use cases or validating AI technique feasibility in controlled environments.

(iii)           Technical Features: Focused and optimized architectures tailored to the specific requirements of the standalone use case or test case.

(iv)           Technical Limitations: Constraints on generalizability, difficulties scaling beyond the initial use case, and challenges ensuring real-world robustness and reliability.

Illustration

An AI chatbot used by a company for customer service during a product launch. As a small-scale standalone application, its inherent purpose is providing automated support for a specific product or service. It employs a focused, optimized technical architecture for handling product-related queries and interactions, but faces limitations in handling queries outside the predefined scope or adapting to new products without significant modifications.

Section 6 – Commercial Methods of Classification

(1)   These methods as designated in clause (c) of sub-section (1) of Section 3 involve the categorisation of commercially produced and disseminated artificial intelligence technologies based on their inherent purpose and primary intended use, considering factors such as:

(i)    The core functionality and technical capabilities of the artificial intelligence technology;

(ii)   The main end-users or business end-users for the artificial intelligence technology, and the size of the user base or market share;

(iii)  The primary markets, sectors, or domains in which the artificial intelligence technology is intended to be applied, and the market influence or dominance in those sectors;

(iv)  The key benefits, outcomes, or results the artificial intelligence technology is designed to deliver, and the potential impact on individuals, businesses, or society;

(v)   The annual turnover or revenue generated by the artificial intelligence technology or the company developing and deploying it;

(vi)  The amount of data collected, processed, or utilized by the artificial intelligence technology, and the level of data integration across different services or platforms; and

(vii)Any other quantitative or qualitative factors that may be prescribed by the Central Government or the Indian Artificial Intelligence Council (IAIC) to assess the significance and impact of the artificial intelligence technology.

 

(2)   Based on an assessment of the factors outlined in sub-section (1), artificial intelligence technologies are classified into the following categories –

(i)    Artificial Intelligence as a Product (AI-Pro), as described in sub-section (3);

(ii)   Artificial Intelligence as a Service (AIaaS), as described in sub-section (4);

(iii) Artificial Intelligence as a Component (AI-Com) which includes artificial intelligence technologies directly integrated into existing products, services & system infrastructure, as described in sub-section (5);

(iv)  Artificial Intelligence as a System (AI-S), which includes layers or interfaces in AIaaS provided which facilitates the integration of capabilities of artificial intelligence technologies into existing systems in whole or in parts, as described in sub-section (6);

(v)   Artificial Intelligence-enabled Infrastructure as a Service (AI-IaaS) which includes artificial intelligence technologies directly integrated into existing components and layers of digital infrastructure, as described in sub-section (7);

(vi)  Artificial Intelligence for Preview (AI-Pre), as described in sub-section (8);

 

(3)   Artificial Intelligence as a Product (AI-Pro) refers to standalone AI applications or software that are developed and sold as individual products to end-users. These products are designed to perform specific tasks or provide particular services directly to the user;

Illustrations

(1) An AI-powered home assistant device as a product is marketed and sold as a consumer electronic device that provides functionalities like voice recognition, smart home control, and personal assistance.

(2) A commercial software package for predictive analytics is used by businesses to forecast market trends and consumer behaviour.

(4)   Artificial Intelligence as a Service (AIaaS) refers to cloud-based AI solutions that are provided to users on-demand over the internet. Users can access and utilize the capabilities of AI systems without the need to develop or maintain the underlying infrastructure;

Illustrations

(1) A cloud-based machine learning platform offers businesses and developers access to powerful AI tools and frameworks on a subscription basis.

(2) An AI-driven customer service chatbot service that businesses can integrate into their websites to handle customer inquiries and support.

(5)   Artificial Intelligence as a Component (AI-Com) refers to AI technologies that are embedded or integrated into existing products, services, or system infrastructures to enhance their capabilities or performance. In this case, the AI component is not a standalone product but rather a part of a larger system;

 

Illustrations

 

(1) An AI-based recommendation engine integrated into an e-commerce platform to provide personalized shopping suggestions to users.

(2) AI-enhanced cameras in smartphones that utilize machine learning algorithms to improve photo quality and provide features like facial recognition.

 

(6)   Artificial Intelligence as a System (AI-S) refers to end-to-end AI solutions that combine multiple AI components, models, and interfaces. These systems often involve the integration of AI capabilities into existing workflows or the creation of entirely new AI-driven processes in whole or in parts;

 

Illustrations

 

(1) An AI middleware platform that connects various enterprise applications to enhance their functionalities with AI capabilities, such as an AI layer that integrates with CRM systems to provide predictive sales analytics.

(2) An AI system used in smart manufacturing, where AI interfaces integrate with industrial machinery to optimize production processes and maintenance schedules.

 

(7)   Artificial Intelligence-enabled Infrastructure as a Service (AI-IaaS) refers to the integration of AI technologies into the underlying computing, storage, and network infrastructure to optimize resource allocation, improve efficiency, and enable intelligent automation. This category focuses on the use of AI at the infrastructure level rather than at the application or service level.

 

Illustrations

 

(1) An AI-enabled traffic management system that integrates with city infrastructure to monitor and manage traffic flow, reduce congestion, and optimize public transportation schedules.

(2) AI-powered utilities management systems that are integrated into the energy grid to predict and manage energy consumption, enhancing efficiency and reducing costs.

 

(8)   Artificial Intelligence for Preview (AI-Pre) refers to AI technologies that are made available by companies for testing, experimentation, or early access prior to wider commercial release. AI-Pre encompasses AI products, services, components, systems, platforms and infrastructure at various stages of development. AI-Pre technologies are typically characterized by one or more of the following features that may include but not limited to:

(i)    The AI technology is made available to a limited set of end users or participants in a preview program;

(ii)   Access to the AI-Pre technology is subject to special agreements that govern usage terms, data handling, intellectual property rights, and confidentiality;

(iii)  The AI technology may not be fully tested, documented, or supported, and the company providing it may offer no warranties or guarantees regarding its performance or fitness for any particular purpose.

(iv)  Users of the AI-Pre technology are often expected to provide feedback, report issues, or share data to help the company refine and improve the technology.

(v)   The AI-Pre technology may be provided free of charge, or under a separate pricing model from the company’s standard commercial offerings.

(vi)  After the preview period concludes, the company may release a commercial version of the AI technology, incorporating improvements and modifications based on feedback and data gathered during the preview. Alternatively, the company may choose not to proceed with a commercial release.

 

Illustration

A technology company develops a new general-purpose AI system that can engage in open-ended dialogue, answer questions, and assist with tasks across a wide range of domains. The company makes a preview version of the AI system available to select academic and industry partners with the following characteristics:

(1)   The preview is accessible to the partners via an API, subject to a special preview agreement that governs usage terms, data handling, and confidentiality.

(2)   The AI system’s capabilities are not yet fully tested, documented or supported, and the company provides no warranties or guarantees.

(3)   The partners can experiment with the system, provide feedback to the company to help refine the technology, and explore potential applications.

(4)   After the preview period, the company may release a commercial version of the AI system as a paid product or service, with expanded capabilities, service level guarantees, and standard commercial terms.

Section 7 – Risk-centric Methods of Classification

(1)   These methods as designated in clause (d) of sub-section (1) of Section 3 classify artificial intelligence technologies based on their outcome and impact-based risks –

(i)             Narrow risk AI systems as described in sub-section (2);

(ii)            Medium risk AI systems as described in sub-section (3);

(iii)           High risk AI systems as described in sub-section (4);

(iv)           Unintended risk AI systems as described in sub-section (5);

 

(2)   Narrow risk AI systems shall be designated based on a risk-centric method that examines their outcome and impact-based risks, considering the following factors primarily determined by the system’s scale, inherent purpose, technical features and limitations:

(i)    Limited scale of utilization or expected deployment across sectors, domains or user groups, determined by the AI system’s inherent purpose and technical capabilities;

(ii)   Low potential for harm or adverse impact, with minimal severity and a small number of individuals potentially affected, due to the AI system’s technical features and limitations;

(iii) Feasible options for data principals or end-users to opt-out of the outcomes produced by the system;

(iv)  Low vulnerability of data principals, end-users or affected entities in realizing, foreseeing or mitigating risks associated with the use of the system, facilitated by the AI system’s transparency and interpretability arising from its technical architecture;

(v)   Outcomes produced by the system are typically reversible with minimal effort, owing to the AI system’s focused scope and well-defined operational boundaries.

 

Illustration

 

A virtual assistant AI integrated into a smartphone app to provide basic information lookup and task scheduling would be classified as a narrow risk AI system. Its limited scale of deployment on individual devices, low potential for harm beyond minor inconveniences, opt-out feasibility by disabling the virtual assistant, low user vulnerability due to transparency of its capabilities, and easily reversible outcomes through resetting the app, all contribute to its narrow risk designation.

 

(3)   Medium risk AI systems shall be designated based on a risk-centric method that examines their outcome and impact-based risks, considering the following factors primarily determined by the system’s technical features and limitations:

(i)    Potential for moderate harm or adverse impact, with the severity and number of potentially affected individuals or entities being higher than narrow risk systems;

(ii)   Limited feasibility for data principals or end-users to opt-out of, or exercise control over, the outcomes or decisions produced by the system in certain contexts;

(iii)  Moderate vulnerability of data principals, end-users or affected entities in realizing, foreseeing or mitigating the risks associated with the use of the system, due to factors such as information asymmetry or power imbalances;

(iv)  Considerable effort may be required to reverse or remediate the outcomes or decisions produced by the system in certain cases;

(v)   The inherent purpose, scale of utilization or expected deployment of the system across sectors, domains or user groups shall not be primary determinants of its risk level.

(vi)  The system’s technical architecture, model characteristics, training data quality, decision-making processes, and other technical factors shall be the primary considerations in assessing its risk level.

 

Illustration

 

An AI-powered loan approval system used by a regional bank would likely be designated as a medium risk AI system. While its scale is limited to the bank’s customer base, the potential to deny loans unfairly or exhibit bias in decision-making poses moderate risks. Customers may have limited opt-out options once applying for a loan. Information asymmetry between the bank and customers regarding the AI’s decision processes creates moderate user vulnerability. And reversing an improper loan denial could require considerable effort, all pointing to a medium risk classification focused on the AI’s technical limitations rather than its inherent purpose.

 

(4)   High risk AI systems shall be designated based on a risk-centric method that examines their outcome and impact-based risks, considering the following factors:

(i)    Widespread utilization or deployment across critical sectors, domains, and large user groups, where disruptions or failures could have severe consequences;

(ii)   Significant potential for severe harm, injury, discrimination, or adverse societal impacts affecting a large number of individuals, communities, or the public interest;

(iii) Lack of feasible options for data principals or end-users to opt-out of, or exercise meaningful control over, the outcomes or decisions produced by the system;

(iv)  High vulnerability of data principals, end-users or affected entities due to inherent constraints such as information asymmetry, power imbalances, or lack of agency to comprehend and mitigate the risks associated with the system;

(v)   Outcomes or decisions produced by the system are extremely difficult, impractical or impossible to reverse, rectify or remediate in most instances, leading to potentially irreversible consequences.

(vi)  The high-risk designation shall apply irrespective of the AI system’s scale of operation, inherent purpose as determined by conceptual classifications, technical architecture, or other limitations, if the risk factors outlined above are present.

 

Illustration

 

An AI system used to control critical infrastructure like a power grid. Regardless of the system’s specific scale, purpose, features or limitations, any failure or misuse could have severe societal consequences, warranting a high-risk classification.

 

(5)   Unintended risk AI systems shall be designated based on a risk-centric method that examines their outcome and impact-based risks, considering the following factors:

(i)    Lack of explicit design intent: The system emerges spontaneously from the complex interactions between its components, models, data, and infrastructure, without being deliberately engineered for a specific purpose.

(ii)   Unpredictable emergence: The system displays novel capabilities, decision-making processes or behavioural patterns that deviate from its original training objectives or intended functionality.

(iii) Uncontrolled evolution: The system continues to learn and evolve in uncontrolled ways after deployment, leading to changes in its behaviour that were not foreseen or accounted for.

(iv)  Inscrutable operation: The internal operations, representations and decision paths of the system become increasingly opaque, hindering interpretability and making it difficult to explain its outputs or behaviours.

 

Illustration

 

An autonomous vehicle navigation system that, through interactions between its various AI components (perception, prediction, path planning), develops unexpected emergent behaviour that was not intended by its designers, potentially leading to accidents.

 

Section 8 - Prohibition of Unintended Risk AI Systems

The development, deployment, and use of unintended risk AI systems, as classified under Section 7(5), is prohibited.

Section 9 - High-Risk AI Systems in Strategic Sectors

(1)   The Central Government shall designate strategic sectors where the development, deployment, and use of high-risk AI systems shall be subject to sector-specific standards and regulations, based on the risk classification methods outlined in Chapter II of this Act.

(2)   The sector-specific standards and regulations for high-risk AI systems in strategic sectors shall address the following aspects:

(i)            Safety: Ensuring that high-risk AI systems operate in a safe and controlled manner, minimizing the potential for harm or unintended consequences to individuals, property, or the environment.

(ii)           Security: Implementing robust security measures to protect high-risk AI systems from unauthorized access, manipulation, or misuse, and safeguarding the integrity and confidentiality of data and systems.

(iii)         Reliability: Establishing mechanisms to ensure the consistent, accurate, and reliable performance of high-risk AI systems, including through rigorous testing, validation, and monitoring processes.

(iv)          Transparency: Promoting transparency in the development, deployment, and operation of high-risk AI systems, enabling stakeholders to understand the underlying algorithms, data sources, and decision-making processes.

(v)           Accountability: Defining clear lines of responsibility and accountability for the actions and outcomes of high-risk AI systems, including provisions for redressal and remediation in case of adverse impacts.

(vi)          Ethical Considerations: Incorporating ethical principles and guidelines to ensure that high-risk AI systems respect human rights, promote fairness and non-discrimination, and align with societal values and norms.

(vii)        Legitimate Uses: Ensuring that the development, deployment, and use of high-risk AI systems in strategic sectors comply with the legitimate uses designated in the provisions of Section 7 of the Digital Personal Data Protection Act, 2023.

(viii)       Any other aspect deemed necessary by the Central Government or the IAIC to mitigate the risks associated with high-risk AI systems in strategic sectors.

(3)   The IAIC shall collaborate with sector-specific regulatory bodies to develop harmonized guidelines and standards for high-risk AI systems in strategic sectors, taking into account the risk classification and associated requirements outlined in this Act.

(4)   In the event of any conflict between the provisions of this Act and sector-specific regulations concerning high-risk AI systems in strategic sectors, the provisions of this Act shall prevail, unless otherwise specified.

Chapter III

Chapter III: INDIAN ARTIFICIAL INTELLIGENCE COUNCIL

Section 10 - Composition and Functions

(1)   With effect from the date notified by the Central Government, there shall be established the Indian Artificial Intelligence Council (IAIC), a statutory body for the purposes of this Act.

(2)   The IAIC shall be an autonomous body corporate with perpetual succession, a common seal, and the power to acquire, hold and transfer property, both movable and immovable, and to contract and be contracted, and sue or be sued by its name.

(3)   The IAIC shall coordinate and oversee the development, deployment, and governance of artificial intelligence systems across all government bodies, ministries, departments, and regulatory authorities, adopting a whole-of-government approach.

(4)   The headquarters of the IAIC shall be located at the place notified by the Central Government.

(5)   The IAIC shall consist of a Chairperson and such number of other Members, not exceeding [X], as the Central Government may notify.

(6)   The Chairperson and Members shall be appointed by the Central Government through a transparent and merit-based selection process, as may be prescribed.

(7)   The Chairperson and Members shall be individuals of eminence, integrity and standing, possessing specialized knowledge or practical experience in fields relevant to the IAIC’s functions, including but not limited to:

(i)    Data and artificial intelligence governance, policy and regulation;

(ii)   Administration or implementation of laws related to consumer protection, digital rights and artificial intelligence and other emerging technologies;

(iii) Dispute resolution, particularly technology and data-related disputes;

(iv)  Information and communication technology, digital economy and disruptive technologies;

(v)   Law, regulation or techno-regulation focused on artificial intelligence, data protection and related domains;

(vi)  Any other relevant field deemed beneficial by the Central Government.

 

(8)   At least three Members shall be experts in law with demonstrated understanding of legal and regulatory frameworks related to artificial intelligence, data protection and emerging technologies.

 

(9)   The IAIC shall have the following functions:

(i)          Develop and implement policies, guidelines and standards for responsible development, deployment and governance of AI systems in India;

(ii)        Coordinate and collaborate with relevant ministries, regulatory bodies and stakeholders to ensure harmonized AI governance across sectors;

(iii)       Establish and maintain the National Registry of AI Use Cases as per Section 12;

(iv)       Administer the certification scheme for AI systems as specified in Section 11;

(v)         Develop and promote the National AI Ethics Code as outlined in Section 13;

(vi)       Facilitate stakeholder consultations, public discourse and awareness on societal implications of AI;

(vii)      Promote research, development and innovation in AI with a focus on responsibility and ethics;

(viii)    Take regulatory actions to ensure compliance with the policies, standards, and guidelines issued by the IAIC under this Act, which may include:

(a)   Issuing show-cause notices requiring non-compliant entities to explain the reasons for non-compliance and outline corrective measures within a specified timeline;

(b)   Imposing monetary penalties based on the severity of non-compliance, the risk level involved, and the potential impact on individuals, businesses, or society, with penalties being commensurate with the financial capacity of the non-compliant entity;

(c)   Suspending or revoking certifications, registrations, or approvals related to non-compliant AI systems, preventing their further development, deployment, or operation until compliance is achieved;

(d)   Mandating independent audits of the non-compliant entity’s processes at their own cost, with audit reports to be submitted to the IAIC for review and further action;

(e)   Issuing directives to non-compliant entities to implement specific remedial measures within a defined timeline, such as enhancing data quality controls, improving governance frameworks, or strengthening decision-making procedures;

(f)    In cases of persistent or egregious non-compliance, recommending the temporary or permanent suspension of the non-compliant entity’s AI-related operations, subject to due process and the principles of natural justice;

(g)   Taking any other regulatory action deemed necessary and proportionate to ensure compliance with the prescribed standards and to safeguard the responsible development, deployment, and use of AI systems.

 

(ix)  Advise the Central Government on matters related to AI policy, regulation and governance, and recommend legislative or regulatory changes as necessary;

(x)   Perform any other functions necessary to achieve the objectives of this Act or as assigned by the Central Government.

(10) The IAIC may constitute advisory committees, expert groups or task forces as deemed necessary to assist in its functions.

(11) The IAIC shall endeavour to function as a digital office to the extent practicable, conducting proceedings, filings, hearings and pronouncements through digital means as per applicable laws.

 

Chapter IV

Chapter IV: CERTIFICATION AND ETHICS CODE


Section 11 – Registration & Certification of AI Systems

(1)   The IAIC shall establish a voluntary certification scheme for AI systems based on their industry use cases and risk levels, on the basis of the means of classification set forth in Chapter II. The certification scheme shall be designed to promote responsible AI development and deployment.

 

(2)   The IAIC shall maintain a National Registry of Artificial Intelligence Use Cases as described in Section 12 to register and track the development and deployment of AI systems across various sectors. The registry shall be used to inform the development and refinement of the certification scheme and to promote transparency and accountability in artificial intelligence governance.

 

(2)   The certification scheme shall be based on a set of clear, objective, and risk-proportionate criteria that assess the inherent purpose, technical characteristics, and potential impacts of AI systems.

 

(3)   AI systems classified as narrow or medium risk under Section 7 and AI-Pre under sub-section (8) of Section 6 may be exempt from the certification requirement if they meet one or more of the following conditions:

(a)   The AI system is still in the early stages of development or testing and has not yet achieved technical or economic thresholds for effective standardization;

(b)  The AI system is being developed or deployed in a highly specialized or niche application area where certification may not be feasible or appropriate; or

(c)   The AI system is being developed or deployed by start-ups, micro, small & medium enterprises, or research institutions.

 

(4)   AI systems that qualify for exemptions under sub-section (3) must establish and maintain incident reporting and response protocols specified in Section 19. Failure to maintain these protocols may result in the revocation of the exemption.

 

(5)   The Issue-to-Issue Concept Classification (IICC), Ethics-Based Concept Classification (EBCC), Phenomena-Based Concept Classification (PBCC), and Anthropomorphism-Based Concept Classification (ABCC) outlined in Section 4 are intended for consultative and advisory purposes only, and their application is not mandatory for the National AI Registry of Use Cases under this Section.

 

(6)   Notwithstanding anything contained in sub-section (5), the conceptual classification methods under Section 4 shall be mandatory for high-risk AI systems as defined in Section 7(4) and high-risk AI systems associated with strategic sectors as specified in Section 9.

 

(7)   For AI systems not covered under sub-section (6), the conceptual classification methods shall serve as a framework to guide discussions, assessments, and decision-making related to AI systems, with the primary purpose of providing a structured approach for examining the inherent purpose, ethical implications, rights-based considerations, and anthropomorphic characteristics of such systems, which can inform policy development, stakeholder consultations, and adjudicatory processes.

(8)   The certification scheme and the methods of classification specified in Chapter II shall undergo periodic review and updating every 12 months to ensure its relevance and effectiveness in response to technological advancements and market developments. The review process shall include meaningful consultation with sector-specific regulators and market stakeholders.

Section 12 – National Registry of Artificial Intelligence Use Cases

(1)   The National Registry of Artificial Intelligence Use Cases shall include the metadata for each registered AI system as set forth in sub-sections (1)(a) through (1)(p):

 

(a)   Name and version of the AI system (required)

(b)   Owning entity of the AI system (required)

(c)   Date of registration (required)

(d)   Sector associated with the AI system and whether the AI system is associated with a strategic sector (required)

(e)   Specific use case(s) of the AI system (required)

(f)    Technical classification of the AI system, as per Section 5 (required)

(g)   Key technical characteristics of the AI system as per Section 5, including:

(i)     Type of AI model(s) used (required)

(ii)   Training data sources and characteristics (required)

(iii)  Performance metrics on standard benchmarks (where available, optional)

(h)   Commercial classification of the AI system as per Section 6 (required)

(i)    Key commercial features of the AI system as per Section 6, including:

(i)              Number of end-users and business end-users in India (required, where applicable)

(ii)            Market share or level of market influence in the intended sector(s) of application (required, where ascertainable)

(iii)           Annual turnover or revenue generated by the AI system or the company owning it (required, where applicable)

(iv)           Amount & intended purpose of data collected, processed, or utilized by the AI system (required, where measurable)

(v)            Level of data integration across different services or platforms (required, where applicable)

 

(j)    Risk classification of the AI system as per Section 7 (required)

(k)   Conceptual classification of the AI system as per Section 4 (required only for high-risk AI Systems)

(l)    Potential impacts of the AI system as per Section 7, including:

(i)    Inherent Purpose (required)

(ii)   Possible risks and harms observed and documented by the owning entity (required)

 

(m) Certification status (required) (registered & certified / registered & not certified)

(n)   A detailed post-deployment monitoring plan as per Section 17 (required only for high-risk AI Systems), including:

(i)              Performance metrics and key indicators to be tracked (optional)

(ii)            Risk mitigation and human oversight protocols (required)

(iii)           Data collection, reporting, and audit trail mechanisms (required)

(iv)           Feedback and redressal channels for impacted stakeholders (optional)

(v)            Commitments to periodic third-party audits and public disclosure of:

(a)    Monitoring reports and performance indicators (optional)

(b)   Descriptions of identified risks, incidents or failures as per sub-section (3) of Section 17 (required)

(c)    Corrective actions and mitigation measures implemented (required)

 

(o)   Incident reporting and response protocols as per Section 19 (required)

(i)          Description of the incident reporting mechanisms established (e.g. hotline, online portal)

(ii)        Timelines committed for incident reporting based on risk classification

(iii)       Procedures for assessing and determining incident severity levels

(iv)       Information to be provided in incident reports as per guidelines

(v)        Confidentiality and data protection measures for incident data

(vi)       Minimum mitigation actions to be taken upon incident occurrence

(vii)      Responsible personnel/team for incident response and mitigation

(viii)    Commitments on notifying and communicating with impacted parties

(ix)       Integration with IAIC’s central incident repository and reporting channels

(x)        Review and improvement processes for incident response procedures

(xi)       Description of the insurance coverage obtained for the AI system, as per Section 25, including the type of policy, insurer, policy number, and coverage limits;

(xii)     Confirmation that the insurance coverage meets the minimum requirements specified in Section 25(3) based on the AI system’s risk classification;

(xiii)    Details of the risk assessment conducted to determine the appropriate level of insurance coverage, considering factors such as the AI system’s conceptual, technical, and commercial classifications as per Sections 4, 5, and 6;

(xiv)    Information on the claims process and timelines for notifying the insurer and submitting claims in the event of an incident covered under the insurance policy;

(xv)     Commitment to maintain the insurance coverage throughout the lifecycle of the AI system and to notify the IAIC of any changes in coverage or insurer.

(p)   Contact information for the owning entity (required)

 

Illustration

A technology company develops a new AI system for automated medical diagnosis using computer vision and machine learning techniques. This AI system would be classified as a high-risk system under Section 7(4) due to its potential impact on human health and safety. The company registers this AI system in the National Registry of Artificial Intelligence Use Cases, providing the following metadata:

(a)   Name and version: MedVision AI Diagnostic System v1.2

(b)   Owning entity: ABC Technologies Pvt. Ltd.

(c)    Date of registration: 01/05/2024

(d)   Sector: Healthcare

(e)    Use case: Automated analysis of medical imaging data (X-rays, CT scans, MRIs) to detect and diagnose diseases

(f)    Technical classification: Specific Purpose AI (SPAI) under Section 5(4)

(g)   Key technical characteristics:

 

·       Convolutional neural networks for image analysis

·       Trained on de-identified medical imaging datasets from hospitals

·       Achieved 92% accuracy on standard benchmarks

 

(h)   Commercial classification: AI-Pro under Section 6(3)

(i)    Key commercial features:

 

·       Intended for use by healthcare providers across India

·       Not yet deployed, so no market share data

·       No revenue generated yet (pre-commercial)

 

(j)    Risk classification: High Risk under Section 7(4)

(k)   Conceptual classification: Assessed under all four methods in Section 4 due to high-risk

(l)    Potential impacts:

 

·       Inherent purpose is to assist medical professionals in diagnosis

·       Documented risks include misdiagnosis, bias, lack of interpretability

 

(m)  Certification status: Registered & certified

(n)   Post-deployment monitoring plan:

 

·       Performance metrics like accuracy, false positive/negative rates

·       Human oversight, periodic audits for bias/errors

·       Logging all outputs, decisions for audit trail

·       Channels for user feedback, grievance redressal

·       Commitments to third-party audits, public incident disclosure

 

(o)   Incident reporting protocols:

 

·       Dedicated online portal for incident reporting

·       Critical incidents to be reported within 48 hours

·       High/medium severity incidents within 7 days

·       Procedures for severity assessment, confidentiality measures

·       Minimum mitigation actions, impacted party notifications

·       Integration with IAIC incident repository

·       Insurance coverage details:

·       Professional indemnity policy from XYZ Insurance Co., policy #PI12345

·       Coverage limit of INR 50 crores, as required for high-risk AI under Section 25(3)(i)

·       Risk assessment considered technical complexity, healthcare impact, irreversible consequences

·       Claims to be notified within 24 hours, supporting documentation within 7 days

·       Coverage to be maintained throughout AI system lifecycle, IAIC to be notified of changes

 

(p)   Contact: info@abctech.com

 

(2)   The IAIC may, from time to time, expand or modify the metadata schema for the National Registry as it deems necessary to reflect advancements in AI technology and risk assessment methodologies. The IAIC shall give notice of any such changes at least 60 days prior to the date on which they shall take effect.

 

(3)   The owners of AI systems shall have the duty to provide accurate and current metadata at the time of registration and to notify the IAIC of any material changes to the registered information within:

 

(i)    15 days of such change occurring for AI systems classified as High Risk under sub-section (4) of Section 7;

(ii)   30 days of such change occurring for AI systems classified as Medium Risk under sub-section (3) of Section 7;

(iii) 60 days of such change occurring for AI systems classified as Narrow Risk under sub-section (2) of Section 7;

(iv)  90 days of such change occurring for AI systems classified as Narrow Risk or Medium Risk under Section 7 that are exempted from certification under sub-section (3) of Section 11.

 

(4)   Notwithstanding anything contained in sub-section (1), the owners of AI systems exempted under sub-section (3) of Section 11 shall only be required to submit the metadata specified in sub-sections (4)(a) through (4)(k) to register their AI systems:

 

(a)   Name and version of the AI system (required)

(b)   Owning entity of the AI system (required)

(c)   Date of registration (required)

(d)   Sector associated with the AI system (optional)

(e)   Specific use case(s) of the AI system (required)

(f)    Technical classification of the AI system, as per Section 5 (optional)

(g)   Commercial classification of the AI system as per Section 6 (required)

(h)   Risk classification of the AI system as per Section 7 (required, narrow risk or medium risk only)

(i)    Certification status (required) (registered & certification is exempted under sub-section (3) of Section 11)

(j)    Incident reporting and response protocols as per Section 19 (required)

(i)          Description of the incident reporting mechanisms established (e.g. hotline, online portal)

(ii)        Timelines committed for reporting high/critical severity incidents (within 14-30 days)

(iii)       Procedures for assessing and determining incident severity levels (only high/critical)

(iv)       Information to be provided in incident reports (incident description, system details)

(v)        Confidentiality measures for incident data based on sensitivity (scaled down)

(vi)       Minimum mitigation actions to be taken upon high/critical incident occurrence

(vii)      Responsible personnel/team for incident response and mitigation

(viii)    Commitments on notifying and communicating with impacted parties

(ix)       Integration with IAIC’s central incident repository and reporting channels

(x)        Description of the insurance coverage obtained for the AI system, as per Section 25, including the type of policy, insurer, policy number, and coverage limits (required for high-risk AI systems only);

(k)   Contact information for the owning entity (required)

 

Illustration

A small AI startup develops a chatbot for basic customer service queries using natural language processing techniques. As a low-risk AI system still in early development stages, they claim exemption under Section 11(3) and register with the following limited metadata:

(a)   Name and version: ChatAssist v0.5 (beta)

(b)   Owning entity: XYZ AI Solutions LLP

(c)   Date of registration: 15/06/2024

(d)   Sector: Not provided (optional)

(e)   Use case: Automated response to basic customer queries via text/voice

(f)    Technical classification: Specific Purpose AI (SPAI) under Section 5(4) (optional)

(g)   Commercial classification: AI-Pre under Section 6(8)

(h)   Risk classification: Narrow Risk under Section 7(2)

(i)    Certification status: Registered & certification exempted under Section 11(3)

(j)    Incident reporting protocols:

 

·       Email support@xyzai.com for incident reporting

Timelines committed for reporting high/critical severity incidents (within 14-30 days)

·       High/critical incidents to be reported within 30 days

Procedures for assessing and determining incident severity levels (only high/critical)

·       Only incident description and system details required

Information to be provided in incident reports (incident description, system details)

Confidentiality measures for incident data based on sensitivity (scaled down)

·       Standard data protection measures as per company policy

Minimum mitigation actions to be taken upon high/critical incident occurrence

·       Mitigation by product team, notifying customers if major

Responsible personnel/team for incident response and mitigation

Commitments on notifying and communicating with impacted parties

Integration with IAIC’s central incident repository and reporting channels

 

(k)   Contact: support@xyzai.com

 

(5)   The IAIC shall put in place mechanisms to validate the metadata provided and to audit registered AI systems for compliance with the reported information. Where the IAIC determines that any developer or owner has provided false or misleading information, it may impose penalties, including fines and revocation of certification, as it deems fit.

(6)   The IAIC shall publish aggregate statistics and analytics based on the metadata in the National Registry for the purposes of supporting evidence-based policymaking, research, and public awareness about AI development and deployment trends. Provided that commercially sensitive information and trade secrets shall not be disclosed.

(7)   Registration and certification under this Act shall be voluntary, and no penal consequences shall attach to the lack of registration or certification of an AI system, except as otherwise expressly provided in this Act.

(8)   The examination process for registration and certification of AI use cases shall be conducted by the IAIC in a transparent and inclusive manner, engaging with relevant stakeholders, including:

(i)    Technical experts and researchers in the field of artificial intelligence, who can provide insights into the technical aspects, capabilities, and limitations of the AI systems under examination.

(ii)   Representatives of industries developing and deploying AI technologies, who can offer practical perspectives on the commercial viability, use cases, and potential impacts of the AI systems.

(iii) Technology standards & business associations and consumer protection groups, who can represent the interests and concerns of end-users, affected communities, and the general public.

(iv)  Representatives from diverse communities and individuals who may be impacted by AI systems, to ensure their rights, needs, experiences and perspectives across different contexts are comprehensively accounted for during the examination process.

(v)   Any other relevant stakeholders or subject matter experts that the IAIC deems necessary for a comprehensive and inclusive examination of AI use cases.

(9)   The IAIC shall publish the results of its examinations for registration and certification of AI use cases, along with any recommendations for risk mitigation measures, regulatory actions, or guidelines, in an accessible format for public review and feedback. This shall include detailed explanations of the classification criteria applied, the stakeholder inputs considered, and the rationale behind the decisions made.

Section 13 – National Artificial Intelligence Ethics Code

(1)   A National Artificial Intelligence Ethics Code (NAIEC) shall be established to provide a set of guiding moral and ethical principles for the responsible development, deployment, and utilization of artificial intelligence technologies;

 

(2)   The NAIEC shall be based on the following core ethical principles:

(i)          AI systems must respect human dignity, well-being, and fundamental rights, including the rights to privacy, non-discrimination and due process.

(ii)        AI systems should be designed, developed, and deployed in a fair and non-discriminatory manner, ensuring equal treatment and opportunities for all individuals, regardless of their personal characteristics or protected attributes.

(iii)       AI systems should be transparent in their operation, enabling users and affected individuals to understand the underlying logic, decision-making processes, and potential implications of the system’s outputs. AI systems should be able to provide clear and understandable explanations for their decisions and recommendations, in accordance with the guidance provided in sub-section (4) on intellectual property and ownership considerations related to AI-generated content.

(iv)       AI systems should be developed and deployed with clear lines of accountability and responsibility, ensuring that appropriate measures are in place to address potential harms, in alignment with the principles outlined in sub-section (3) on the use of open-source software for promoting transparency and collaboration.

(v)        AI systems should be designed and operated with a focus on safety and robustness, minimizing the potential for harm, unintended consequences, or adverse impacts on individuals, society, or the environment. Rigorous testing, validation, and monitoring processes shall be implemented.

(vi)       AI systems should be developed and deployed with consideration for their environmental impact, promoting sustainability and minimizing negative ecological consequences throughout their lifecycle.

(vii)     AI systems should foster human agency, oversight, and the ability for humans to make informed decisions, while respecting the principles of human autonomy and self-determination. Appropriate human control measures should be implemented;

(viii)    AI systems should be developed and deployed with due consideration for their ethical and socio-economic implications, promoting the common good, public interest, and the well-being of society. Potential impacts on employment, skills, and the future of work should be assessed and addressed.

(ix)       AI systems that are developed and deployed using frugal prompt engineering practices should optimize efficiency, cost-effectiveness, and resource utilization while maintaining high standards of performance, safety, and ethical compliance in alignment with the principles outlined in sub-section (5). These practices should include the use of concise and well-structured prompts, transfer learning, data-efficient techniques, and model compression, among others, to reduce potential risks, unintended consequences, and resource burdens associated with AI development and deployment.

 

(3)   The Ethics Code shall encourage the use of open-source software (OSS) in the development of narrow and medium-risk AI systems to promote transparency, collaboration, and innovation, while ensuring compliance with applicable sector-specific & sector-neutral laws and regulations. To this end:

(i)    The use of OSS shall be guided by a clear understanding of the open source development model, its scope, constraints, and the varying implementation approaches across different socio-economic and organizational contexts.

(ii)   AI developers shall be encouraged to release non-sensitive components of their AI systems under OSS licenses, fostering transparency and enabling public scrutiny, while also ensuring that sensitive components and intellectual property are adequately protected.

(iii) The use of OSS in AI development shall not exempt AI systems from complying with the principles and requirements set forth in this Ethics Code, including fairness, accountability, transparency, and adherence to applicable laws and regulations.

(iv)  AI developers using OSS shall ensure that their systems adhere to the same standards of fairness, accountability, and transparency as proprietary systems, and shall implement appropriate governance, quality assurance, and risk management processes.

(v)   The IAIC shall support research and development initiatives under the Digital India Programme that leverage OSS to create AI tools and frameworks that prioritize ethics, safety, inclusivity, and responsible innovation, while also providing guidance and best practices for the effective and sustainable use of OSS in AI development.

(vi)  The IAIC shall collaborate with relevant stakeholders, including open source communities, industry associations, and academic institutions, to develop guidelines and frameworks for the responsible and context-appropriate adoption of OSS in AI development, taking into account the unique challenges and opportunities across different sectors and organizational contexts.

 

(4)   The Ethics Code shall provide guidance on intellectual property and ownership considerations related to AI-generated content. To this end:

(i)    Appropriate mechanisms shall be established to determine ownership, attribution and intellectual property rights over content generated by AI systems, while fostering innovation and protecting the rights of human creators and innovators.

(ii)   Specific considerations shall include recognizing the role of human involvement in developing and deploying the AI systems, establishing guidelines on copyrightability and patentability of AI-generated works and inventions, addressing scenarios where AI builds upon existing protected works, safeguarding trade secrets and data privacy, balancing incentives for AI innovation with disclosure and access principles, and continuously updating policies as AI capabilities evolve.

(iii) The Ethics Code shall encourage transparency and responsible practices in managing intellectual property aspects of AI-generated content across domains such as text, images, audio, video and others.

(iv)  In examining IP and ownership issues related to AI-generated content, the Ethics Code shall be guided by the conceptual classification methods outlined in Section 4, particularly the Anthropomorphism-Based Concept Classification to evaluate scenarios where AI replicates or emulates human creativity and invention.

(v)   The technical classification methods described in Section 5, such as the scale, inherent purpose, technical features, and limitations of the AI system, shall inform the assessment of IP and ownership considerations for AI-generated content.

(vi)  The commercial classification factors specified in the sub-section (1) of Section 6, including the user base, market influence, data integration, and revenue generation of the AI system, shall also be taken into account when determining IP and ownership rights over AI-generated content.

 

(5)   The Ethics Code shall provide guidance on frugal prompt engineering practices for the development of AI systems, including:

(i)    Encouraging the use of concise and well-structured prompts that clearly define the desired outputs and constraints;

(ii)   Recommending the adoption of transfer learning and pre-trained models to reduce the need for extensive fine-tuning;

(iii) Promoting the use of data-efficient techniques, such as few-shot learning or active learning, to minimize the amount of training data required;

(iv)  Suggesting the implementation of early stopping mechanisms to prevent overfitting and improve generalization;

(v)   Advocating for the utilization of techniques like model compression, quantization, or distillation to reduce computational complexity and resource requirements;

(vi)  Encouraging the documentation and maintenance of records on prompt engineering practices, including the rationale behind chosen techniques, performance metrics, and any trade-offs made between efficiency and effectiveness;

(vii)Recommending the periodic review and updating of prompt engineering practices based on the latest research, industry standards, and the guidelines provided by the IAIC;

 

(6)   Compliance with the NAIEC shall be voluntary for narrow and medium-risk AI systems, as well as those exempted under the sub-section (3) of Section 11. However, the IAIC may mandate adherence to specific principles of the NAIEC and the sub-sections (3), (4), and (5) for high-risk AI systems deployed in sensitive domains, strategic sectors or those with significant potential for societal or sociotechnical impact;

 

(7)   The NAIEC shall be reviewed and updated periodically by the IAIC to reflect advancements in AI technologies, emerging best practices, and evolving societal norms and values related to the responsible development and deployment of AI systems.

Chapter V

Chapter V: KNOWLEDGE MANAGEMENT AND DECISION-MAKING


Section 14 - Model Standards on Knowledge Management

(1)   The IAIC shall develop, document and promote comprehensive model standards on knowledge management practices concerning the development, maintenance, and governance of high-risk AI systems. These standards shall focus on the effective management of knowledge assets;

 

(2)   The model standards shall encompass the following areas:

(i)    Intellectual property management practices to safeguard and leverage AI-related intellectual property rights such as patents, copyrights, trademarks and industrial designs.

(ii)   Processes for documenting and organizing technical knowledge assets like research reports, manuals, standards and industrial practices related to AI systems.

(iii) Frameworks for capturing, retaining and transferring the tacit knowledge and expertise of human capital involved in AI development and deployment.

(iv)  Organizational systems and methodologies to enable effective knowledge capture, storage, retrieval and utilization across the AI system lifecycle.

(v)   Mechanisms for leveraging customer-related knowledge assets such as data, feedback and insights to enhance AI system development and performance.

(vi)  Analytical techniques to derive knowledge from data analysis, including identifying patterns, trends and developing predictive models for AI systems.

(vii)Collaborative practices to foster cross-functional knowledge sharing and generation through teams, communities of practice and other initiatives.

 

(3)   All entities engaged in the development, deployment, or utilization of high-risk AI systems shall be bound by the model standards on knowledge management and decision-making as provided by this section. The compliance timeline for such high-risk AI systems shall be determined by the IAIC and may vary based on the technical, commercial and risk-based classification of those systems under Section 12.

(4)   The Central Government shall empower the IAIC or agencies to establish a knowledge management registry process to enable the standardisation of various knowledge management practices and procedures associated with the life cycle of AI systems.

 

(5)   The entities responsible for the development of high-risk AI systems shall be required to submit regular audit reports to the IAIC, outlining their adherence to the model standards for knowledge management and decision-making.

 

(6)   For artificial intelligence technologies subject to commercial classification as determined by the factors outlined in sub-section (1) of Section 6, the requirement to comply with these model standards on knowledge management shall be assessed by the IAIC on a case-by-case basis, taking into consideration the specific commercial classification factors applicable to each AI technology.

 

Illustration

 

A startup has developed an AI-powered language translation app that allows users to translate text, documents, and speech between multiple Indian languages. Based on an assessment of the factors in Section 6(1), such as the app’s user base, market influence, and data integration, the IAIC may determine that this AI technology falls under the AI-Pro or AIaaS category. The IAIC will then evaluate if the startup needs to fully comply with the knowledge management standards or if certain requirements can be relaxed or made optional based on the app’s specific use case and commercial profile.

 

(7)   In determining the case-by-case application of these model standards to commercially classified AI technologies under sub-section (1) of Section 6, the IAIC shall take into account any relevant sector-specific standards, codes of practice, or regulatory guidelines pertaining to knowledge management practices in the sector to which the AI technology belongs or is intended to be deployed.

Illustration

An agritech startup has developed an AI system that analyzes satellite imagery and weather data to provide crop yield predictions and advisory services to farmers. As this AI technology falls within the agriculture sector, the IAIC’s assessment of its knowledge management requirements will consider any relevant guidelines or standards issued by bodies like the Indian Council of Agricultural Research (ICAR) or the Ministry of Agriculture & Farmers’ Welfare. These may include data governance norms for agricultural data, model validation protocols for AI-based advisory services, or best practices for maintaining data trails and audit logs in agritech applications.

(8)   Failure to adhere to the prescribed model standards for knowledge management and decision-making processes shall result in regulatory actions by the IAIC, which may include:

(i)    Issuance of show-cause notices to the non-compliant entity, requiring them to explain the reasons for non-compliance and outline corrective measures within a specified timeline.

(ii)   Imposition of monetary penalties, determined based on the severity of non-compliance, the risk level of the AI system involved, and the potential impact on individuals, businesses, or society. The monetary penalties shall be commensurate with the financial capacity of the non-compliant entity.

(iii) Suspension or revocation of certifications or registrations related to the non-compliant AI system, preventing its further development, deployment, or operation until compliance is achieved.

(iv)  Mandating independent audits of the non-compliant entity’s knowledge management and decision-making processes at their own cost, with the audit reports to be submitted to the IAIC for review and further action.

(v)   Issuing directives to the non-compliant entity to implement specific remedial measures, such as enhancing data quality controls, improving model governance frameworks, or strengthening decision-making procedures, within a defined timeline.

(vi)  In cases of persistent or egregious non-compliance, the IAIC may recommend the temporary or permanent suspension of the non-compliant entity’s AI-related operations, subject to due process and the principles of natural justice.

(vii)Any other regulatory action deemed necessary and proportionate by the IAIC to ensure compliance with the prescribed model standards and to safeguard the responsible development, deployment, and use of high-risk AI systems.

 

(9)   The IAIC shall establish and publish clear guidelines and criteria for determining the appropriate regulatory actions, ensuring transparency and consistency in its decision-making process.

(10)The IAIC shall encourage the sharing of AI-related knowledge, including datasets, models, and algorithms, through open source software repositories and platforms, subject to applicable intellectual property rights and the provisions of the Digital Personal Data Protection Act, 2023 and other relevant data protection and governance frameworks as may be prescribed.


Chapter VI

Chapter VI: ON GUIDANCE PRINCIPLES AND MONITORING


Section 15 - Guidance Principles for AI-related Agreements

(1)   The following guidance principles shall apply to AI-related agreements to promote transparent, fair, and responsible practices in the development, deployment, and use of AI technologies:

 

(i)    AI Software License Agreement (ASLA):

(a)    The AI Software License Agreement (ASLA) shall be mandatory for AI systems classified as AI-Pro or AI-Com as per Section 6, if they are designated as High Risk AI systems under Section 7.  

(b)   The ASLA shall clearly define:

(i)     The scope of rights granted to the licensee, including limitations on use, modification, and distribution of the AI software;

(ii)   Intellectual property rights and ownership provisions;

(iii)  Term, termination, warranties, and indemnification clauses.

 

(ii)   AI Service Level Agreement (AI-SLA):

(a)    The AI Service Level Agreement (AI-SLA) shall be mandatory for AI systems classified as AIaaS or AI-Com as per Section 6, if they are designated as High Risk or Medium Risk AI systems under Section 7.     

(b)   The AI-SLA shall establish:

(i)     Service levels, performance metrics, availability, and support commitments;

(ii)   Monitoring, measurement, change management, and problem resolution mechanisms;

(iii)  Data handling, security, and business continuity requirements.

 

(iii) AI End-User License Agreement (AI-EULA) or AI End-Client License Agreement (AI-ECLA):

(a)    The AI End-User License Agreement (AI-EULA) shall be mandatory for all AI system classifications intended for end-user or client deployment;

(b)   The AI-EULA or AI-ECLA shall specify:

(i)     Permitted uses and user obligations;

(ii)   Data privacy provisions aligned with the Digital Personal Data Protection Act, 2023 and other cyber and data protection frameworks;

(iii)  Intellectual property rights, warranties, and liability limitations.

 

(iv)  AI Explainability Agreement (AI-ExA):

(a)    The AI Explainability Agreement (AI-ExA) shall be mandatory for all high-risk AI systems under Section 7;

(b)   The AI-ExA shall specify:

(i)     Clear and understandable explanations for AI system outputs and decisions;

(ii)   Documentation and reporting on the AI system’s decision-making processes;

(iii)  Provisions for human review and intervention mechanisms

 

(2)   The following agreements shall be voluntary in nature, but are recommended for adoption by entities engaged in the deployment of AI systems:

(i)    An AI Data Licensing Agreement, which shall govern the terms and conditions for licensing data sets used for training, testing, and validating AI systems;

(ii)   An AI Model Licensing Agreement, which shall cover the licensing of pre-trained AI models or model components for use in developing or deploying AI systems;

(iii) An AI Collaboration Agreement, which shall facilitate collaboration between multiple parties, such as research institutions, companies, or individuals, in the development or deployment of AI systems;

(iv)  An AI Consulting Agreement, which shall govern the terms and conditions under which an AI expert or consulting firm provides advisory services, technical assistance, or training related to the development, deployment, or use of AI systems;

(v)   An AI Maintenance and Support Agreement, which shall define the terms and conditions for ongoing maintenance, support, and updates for AI systems.

 

(3)   Agreements that are mandatory in nature must include provisions addressing the following:

(i)    Requirements for post-deployment monitoring of AI systems classified as High Risk AI systems;

(ii)   Protocols for incident reporting and response in the event of any issues or incidents related to the AI system;

(iii) Penalties or consequences for non-compliance with the terms of the agreement or any applicable laws or regulations.

 

(4)   The IAIC shall develop and publish model AI-related agreements incorporating these guidance principles, taking into account the unique characteristics and risks associated with different types of AI systems, such as:

(i)    The inherent purpose of the AI system, as determined by the conceptual classifications outlined in Section 4;

(ii)   The technical features and limitations of the AI system, as specified in Section 5;

(iii) The commercial factors associated with the AI system, as outlined in Section 6;

(iv)  The risk level of the AI system, as classified under Section 7.

 

(5)   Entities engaged in the development, deployment, or use of AI systems shall adopt and customize the model templates provided by the IAIC to suit their specific contexts and requirements, while adhering to the core principles of transparency, fairness, and responsibility.

(6)   The IAIC may mandate the use of model agreements for certain high-risk sectors, high-risk use cases as per Section 6, or types of entities, where the potential risks associated with the AI system are deemed significant.

(7)   The model agreements shall be reviewed and updated periodically to reflect advancements in AI technologies, evolving best practices, and changes in the legal and regulatory landscape.

 

Section 16 - Guidance Principles for AI-related Corporate Governance

(1)   Entities involved in the development, deployment, and use of artificial intelligence (AI) techniques, tools or methods across their governance structures and decision-making processes must adhere to the following guiding principles as per the National Artificial Intelligence Ethics Code under Section 13:

(i)    Accountability and Responsibility:

(a)    Clear accountability for decisions and actions involving the use of AI techniques must be maintained within the organization by the appropriate leadership or management.

(b)   Robust governance frameworks must be established to assign roles, responsibilities and oversight mechanisms related to the development, deployment and monitoring of AI systems used for corporate governance purposes.

 

(ii)   Transparency and Explainability:

(a)    AI systems used to aid corporate decision-making must employ transparent models and techniques that enable interpretability of their underlying logic, data inputs and decision rationales

(b)   Comprehensive documentation must be maintained on the AI system’s architecture, training data, performance metrics and potential limitations or biases

(c)    Internal policies, directives and guidelines must be made by entities for impacted stakeholders to access explanations of how AI-driven decisions were made and what factors influenced those decisions

 

(iii) Human Agency and Oversight:

(a)   The use of AI techniques in corporate governance must be subject to meaningful human control, oversight and the ability to intervene in or override AI system outputs when necessary.

(b)   Appropriate human review mechanisms must be implemented, particularly for high-stakes decisions impacting all relevant stakeholders, including employees, shareholders, customers, and the public interest;

(c)   Company or Organisation policies must clearly define the roles and responsibilities of humans versus AI systems in governance and decision-making processes;

 

(iv)  Intellectual Property and Ownership Considerations:

(a)   Corporate entities should establish clear policies and processes for determining ownership, attribution, and intellectual property rights over AI-generated content, inventions, and innovations.

(b)   These policies should recognize and protect the contributions of human creators, inventors, and developers involved in the development and deployment of AI systems.

(c)    Corporations should balance the need for incentivizing innovation through intellectual property protections with the principles of transparency, accountability, and responsible use of AI technologies.

 

(v)   Encouraging Open Source Adoption:

(a)    Companies and organisations are encouraged to leverage open-source software (OSS) and open standards in the development and deployment of AI systems, where appropriate.

(b)   The use of OSS can promote transparency, collaboration, and innovation in the AI ecosystem while ensuring compliance with applicable laws, regulations, and ethical principles outlined in Section 13.

(c)    Companies and organisations should contribute to and participate in open-source AI communities, fostering knowledge sharing and collective advancement of AI technologies.

 

(2)   For the purposes of these Guidance Principles, the artificial intelligence (AI) techniques, tools or methods across governance structures and decision-making processes shall refer to:

(i)     AI systems that replicate or emulate human decision-making abilities through autonomy, perception, reasoning, interaction, adaptation and creativity, as evaluated under the Anthropomorphism-Based Concept Classification (ABCC) described in sub-section (5) of Section 4;

(ii)   AI systems whose development, deployment and utilization within corporate governance structures necessitates the evaluation and mitigation of potential ethical risks and implications, in accordance with the Ethics-Based Concept Classification (EBCC) under sub-section (3) of Section 4;

(iii) AI systems that may impact individual rights such as privacy, due process, non-discrimination as well as collective rights, requiring a rights-based assessment as per the Phenomena-Based Concept Classification (PBCC) outlined in sub-section (4) of Section 4;

(iv)  General Purpose AI Applications with Multiple Stable Use Cases (GPAIS) that can reliably operate across various governance functions as per the technical classification criteria specified in sub-section (2) of Section 5;

(v)   Specific Purpose AI Applications (SPAI) designed for specialized governance use cases based on the factors described in sub-section (4) of Section 5;

(vi)  AI systems classified as high-risk under the sub-section (4) of Section 7 due to their potential for widespread impact, lack of opt-out feasibility, vulnerability factors or irreversible consequences related to corporate governance processes;

(vii)AI systems classified as medium-risk under the sub-section (3) of Section 7 that require robust governance frameworks focused on transparency, explainability and accountability aspects;

(viii)               AI systems classified as narrow-risk under the sub-section (2) of Section 7 where governance approaches should account for their technical limitations and vulnerabilities.

 

(3)   For AI systems exempted from certification under Section 11(3), companies and organisations may adopt a lean governance approach, focusing on:

(i)    Establishing basic incident reporting and response protocols as per Section 19, without the stringent requirements applicable to high-risk AI systems.

(ii)   Maintaining documentation and ensuring interpretability of the AI systems to the extent feasible, given their limited risk profile.

(iii) Conducting periodic risk assessments and implementing corrective measures as necessary, commensurate with the AI system’s potential impact.

 

(4)   The IAIC may mandate the application of the guidance principles outlined in this section for certain high-risk sectors, high-risk use cases as per Section 6, or types of entities, where the potential risks associated with the AI system are deemed significant.

(5)   The guidance principles shall be reviewed and updated periodically to reflect advancements in AI technologies, evolving best practices, and changes in the legal and regulatory landscape.


Section 17 - Post-Deployment Monitoring of High-Risk AI Systems

(1)   High-risk AI systems as classified in the sub-section (4) of Section 7 shall be subject to ongoing monitoring and evaluation throughout their lifecycle to ensure their safety, security, reliability, transparency and accountability.

(2)   The post-deployment monitoring shall be conducted by the providers, deployers, or users of the high-risk AI systems, as appropriate, in accordance with the guidelines established by the IAIC.

(3)   The IAIC shall develop and establish comprehensive guidelines for the post-deployment monitoring of high-risk AI systems, which may include, but not be limited to, the following:

(i)    Identification and assessment of potential risks, which includes:

(a)    performance deviations,

(b)   malfunctions,

(c)    unintended consequences,

(d)   security vulnerabilities, and

(e)    data breaches;

 

(ii)   Evaluation of the effectiveness of risk mitigation measures and implementation of necessary updates, corrections, or remedial actions;

(iii) Continuous improvement of the AI system’s performance, reliability, and trustworthiness based on real-world feedback and evolving best practices; and

(iv)  Regular reporting to the IAIC on the findings and actions taken as a result of the post-deployment monitoring, including any incidents, malfunctions, or adverse impacts identified, and the measures implemented to address them.

 

(4)   The post-deployment monitoring facilitated by the IAIC shall involve collaboration and coordination among providers, deployers, users, and sector-specific regulatory authorities, to ensure a comprehensive and inclusive approach to AI system oversight.

(5)   The IAIC shall establish mechanisms for the independent auditing and verification of the post-deployment monitoring activities of high-risk AI systems, as specified in the registration and certification metadata requirements under Section 12. This shall ensure transparency, accountability, and public trust in the governance of such AI systems through:

(i)    Mandatory documentation and reporting by providers on the monitoring protocols, performance metrics, risk mitigation measures, and human oversight mechanisms implemented for their high-risk AI systems;

(ii)   Periodic audits by accredited third-party auditors to validate the accuracy and completeness of the reported information against the certification criteria;

(iii) Public disclosure of audited monitoring reports and key performance indicators, subject to reasonable protection of confidential business information;

(iv)  Enabling mechanisms for relevant stakeholders and impacted communities to submit feedback and concerns regarding the real-world impacts of deployed high-risk AI systems.

(6)   Failure to comply with the post-deployment monitoring requirements and guidelines established by the IAIC may result in penalties as may be prescribed by the IAIC.

Chapter VII

Chapter VII: REPORTING AND SHARING


Section 18 - Third-Party Vulnerability Reporting

(1)   The IAIC shall establish a secure and accessible digitised platform for third-party vulnerability reporting of risks associated with AI systems. This platform shall allow individuals and organizations to anonymously report vulnerabilities without fear or coercion.

(2)   The IAIC shall establish a vulnerability response team to promptly review and assess reported vulnerabilities. This team shall have the expertise and resources to investigate vulnerabilities, determine their severity, and develop mitigation strategies.

(3)   The IAIC shall establish a communication protocol for informing affected parties of identified vulnerabilities and coordinating mitigation efforts. This protocol shall ensure that vulnerabilities are addressed in a timely and effective manner.

Section 19 - Incident Reporting and Mitigation Protocols

(1)   All developers, operators, and users of AI systems shall establish mechanisms for reporting incidents related to such AI systems.

(2)   Incident reporting mechanisms must be easily accessible, user-friendly, and secure, such as a dedicated hotline, online portal, or email address.

(3)   Incidents involving high-risk AI systems shall be treated as a priority and reported immediately, but not later than 48 hours from becoming aware of the incident.

(4)   For other AI systems, incidents must be reported within 7 days of becoming aware of such incidents.

(5)   All incident reports shall be submitted to a central repository established and maintained by the IAIC.

(6)   The IAIC shall collect, analyse, and share incident data from this repository to identify trends, potential risks, and develop mitigation strategies.

(7)   The IAIC shall publish guidelines on incident reporting requirements, including:

(i)     Criteria for determining incident severity:

(a)    Critical: Incidents involving high-risk AI systems posing an imminent threat to human life, safety, or fundamental rights;

(b)   High: Incidents causing significant harm, disruption, or financial loss;

(c)    Medium: Incidents with moderate impact or potential for risk escalation;

(d)   Low: Incidents with minimal impact.

 

(ii)   Information to Provide in Incident Reports:

(a)    Detailed description of the incident and its impact;

(b)   Details of the AI system (type, use case, risk level, deployment stage);

(c)    For high-risk AI systems: Root cause analysis, mitigation actions, and supporting data.

 

(iii) Timelines and Procedure for Reporting:

(a)    Critical incidents with high-risk AI systems must be reported within 48 hours;

(b)   High or medium severity incidents must be reported within 7 days if involving high-risk AI systems, and within 14 days for all other systems;

(c)    Low severity incidents must be reported monthly.

 

(iv)  Confidentiality measures for incident data:

(a)    All AI systems must ensure to have:

·       Data encryption at rest and in transit;

·       Role-based access controls for incident data;

·       Maintaining audit logs of all data access;

·       Secure communication channels for data transmission;

·       Retaining data as per requirements under cyber and data protection frameworks;

·       Regular risk assessments on data confidentiality;

·       Employee training on data protection and handling.

 

(b)   All high-risk AI systems must ensure to have:

·       Proper encryption key management practices;

·       Encryption for removable media with incident data;

·       Multi-factor authentication for data access;

·       Physical security controls for data storage;

·       Redacting/anonymizing personal information;

·       Secure data disposal mechanisms;

·       Periodic external audits on confidentiality;

·       Disciplinary actions for violations.

 

(c)    The following measures are optional for low-risk AI systems:

·       Key management practices (recommended);

·       Removable media encryption (as needed);

·       Multi-factor authentication (recommended);

·       Physical controls (based on data sensitivity);

·       Personal data redaction (as applicable);

·       Secure disposal mechanisms (recommended).

 

(8)   All AI system developers, operators, and users shall implement the following minimum mitigation actions upon becoming aware of an incident:

(i)    Assess the incident severity based on IAIC guidelines;

(ii)   Contain the incident through isolation, disabling functions, or other measures;

(iii) Investigate the root cause of the incident;

(iv)  Remediate the incident through updates, security enhancements, or personnel training;

(v)   Communicate incident details and mitigation actions to impacted parties;

(vi)  Review and improve internal incident response procedures.

 

(9)   For AI systems exempted from certification under sub-section (3) of Section 11, the following guidelines shall apply regarding incident reporting and response protocols:

(i)    Voluntary Incident Reporting: Developers, operators and users of exempted AI systems are encouraged, but not mandatorily required, to establish mechanisms for incident reporting related to such systems.

(ii)   Focus on High/Critical Incident: In cases where incident reporting mechanisms are established, the focus shall be on reporting high severity or critical incidents that pose a clear potential for harm or adverse impact.

(iii) Reasonable Timelines: For high/critical incidents involving exempted AI systems, developers shall report such incidents to the IAIC within a reasonable timeline of 14-30 days from becoming aware of the incident.

(iv)  Incident Description: Incident reports for exempted AI systems shall primarily include a description of the incident, its perceived severity and impact, and details about the AI system itself (type, use case, risk classification).

(v)   Confidentiality Measures: Developers of exempted AI systems shall implement confidentiality measures for incident data that are proportionate to the data sensitivity and potential risks involved.

(vi)  Coordinated Disclosure: The IAIC shall establish coordinated disclosure programs to facilitate responsible reporting and remediation of vulnerabilities or incidents related to exempted AI systems.

(vii)Knowledge Sharing: The IAIC shall maintain a knowledge base of reported incidents involving exempted AI systems and share anonymized information to promote learning and improve incident response practices.

 

(10)The IAIC shall provide support and resources to AI entities on request for effective incident mitigation, prioritizing high-risk AI incidents.

(11)The IAIC shall have the power to audit AI entities and impose penalties for non-compliance with this Section as per the provisions of this Act.

 

Section 20 - Responsible Information Sharing

(1)   Developers, operators, and users of AI systems must share information in a responsible and ethical manner, which includes ensuring that information is accurate, complete, and relevant to the purpose of sharing.

(2)   Information sharing must be transparent, verifiable, and subject to appropriate safeguards to protect privacy and data security, which includes obtaining informed consent from data principals whose data is being shared.

(3)   Data fiduciaries and third-party companies must describe a set of general practices applicable to the developers, operators and users of AI system attributed to information sharing in any agreement involving the use, development and commercialisation of artificial intelligence technologies.

(4)   The IAIC shall develop sector-neutral guidelines for responsible information sharing in the context of artificial intelligence technologies which may be superseded by sector-specific data regulations, circulars & guidelines.

 

Chapters VIII & IX

Chapter VIII: INTELLECTUAL PROPERTY AND STANDARDS

Section 21 - Intellectual Property Protections

(1)   In recognition of the unique challenges and opportunities presented by the development and use of artificial intelligence systems, AI systems must be protected through a combination of existing intellectual property (IP) rights, such as copyright, patents, and design rights, as well as new and evolving IP concepts specifically tailored to address the spatial aspects of AI systems.

 

(2)   For the purposes of this Section, “spatial aspects of AI systems” shall refer to the unique capabilities of AI technologies, including but not limited to:

(i)    Dynamically adapting and generating novel outputs based on changing inputs, environments, and interactions;

(ii)   Operating with varying levels of autonomy in decision-making, task execution, and self-learning;

(iii) Integrating and analysing data from multiple spatial, temporal, and contextual sources;

(iv)  Enabling novel applications, services, and experiences leveraging spatial computing technologies.

 

(3)   The objectives of providing a combination of existing intellectual property rights are to:

(i)     Encourage innovation by securing enforceable rights for AI developers over their creations, inventions, and generated outputs;

(ii)    Enhance interoperability by ensuring contractual arrangements are not unduly hindered by restrictive IP terms;

(iii)  Promote fair competition by preventing unauthorized exploitation of AI-related IP assets developed in India;

(iv)   Protect individual privacy and data rights by aligning IP protections with provisions under the Digital Personal Data Protection Act, 2023 and other data protection frameworks.

 

(4)   The IAIC shall establish consultative mechanisms, in cooperation with relevant IP authorities and stakeholders, to develop a comprehensive framework for the identification, protection, and enforcement of intellectual property rights related to AI systems, including:

(i)    Defining the scope and limitations of combined IP protections for AI systems and their spatial aspects;

(ii)   Assessing the compatibility of such protections with existing IP laws and international treaties;

(iii) Addressing interoperability considerations to enable seamless integration and data exchange among AI systems;

(iv)  Examining IP implications of AI systems’ ability to process, learn from, and generate content based on copyrighted works or patented inventions;

(v)   Developing guidelines for determining authorship, inventorship, and ownership of AI-generated content and innovations;

(vi)  Establishing protocols for rights management, licensing, and commercialization of AI-related IP assets.

 

(5)   The use of open-source software in AI systems shall be subject to the terms and conditions of the respective open-source licenses, with the IAIC providing guidance on compatibility between such licenses and the IP protections framework for AI systems.

(6)   The IAIC shall periodically review and update the IP protections framework to accommodate advancements in AI technologies, evolving legal and regulatory landscapes, and emerging best practices in the field of AI and spatial computing.


Chapter IX: SECTOR-NEUTRAL & SECTOR-SPECIFIC STANDARDS


Section 22 - Shared Sector-Neutral & Sector-Specific Standards

(1)   The IAIC shall coordinate the implementation and review of the following sector-neutral standards for the responsible development, deployment, and use of AI systems:

(i)    Fundamental Principles of Liability as outlined in sub-sections (2), (3), and (4);

 

(2)   Liability for harm or damage caused by an AI system shall be allocated based on the following principles:

(i)    The party that developed, deployed, or operated the AI system shall be primarily liable for any harm or damage caused by the system, taking into account the system’s classification under the conceptual, technical, commercial, and risk-based methods.

(ii)   Liability may be shared among multiple parties involved in the AI system’s lifecycle, based on their respective roles and responsibilities, as well as the system’s classification and associated requirements under Sections 8 and 9.

(iii) End-users shall not be held liable for harm or damage caused by an AI system, unless they intentionally misused or tampered with the system, or failed to comply with user obligations specified based on the system’s classification.

 

(3)   To determine and adjudicate liability for harm caused by AI systems, the following factors shall be considered:

(i)    The foreseeability of the harm, in light of the AI system’s intended purpose as identified by the Issue-to-Issue Concept Classification (IICC) under Section 4(2), its capabilities as specified in the Technical Classification under Section 5, and its limitations according to the Risk Classification under Section 7;

(ii)   The degree of control exercised over the AI system, considering the human oversight and accountability requirements tied to its Risk Classification under Section 7, particularly the principles of Human Agency and Oversight as outlined in Section 13;

 

(4)   Developers and operators of AI systems shall be required to obtain liability insurance to cover potential harm or damage caused by their AI systems. The insurance coverage shall be proportionate to the risk levels and potential impacts of the AI systems, as determined under the Risk Classification framework in Section 7, and the associated requirements for high-risk AI systems outlined in Section 9. This insurance policy shall ensure that compensation is available to affected individuals or entities in cases where liability cannot be attributed to a specific party.

 

(5)   The IAIC shall enable coordination among sector-specific regulators for the responsible development, deployment, and use of AI systems in sector-specific contexts based on the following set of principles:

(i)    Transparency and Explainability:

(a)    AI systems should be designed and developed in a transparent manner, allowing users to understand how they work and how decisions are made.

(b)   AI systems should be able to explain their decisions in a clear and concise manner, allowing users to understand the reasoning behind their outputs.

(c)    Developers should provide clear documentation and user guides explaining the AI system’s capabilities, limitations, and potential risks.

(d)   The level of transparency and explainability required may vary based on the AI system’s risk classification and intended use case.

 

(ii)   Fairness and Bias:

(a)    AI systems should be regularly monitored for technical bias and discrimination, and appropriate mitigation measures should be implemented to address any identified issues in a sociotechnical context.

(b)   Developers should ensure that training data is diverse, representative, and free from biases that could lead to discriminatory outcomes.

(c)    Ongoing audits and assessments should be conducted to identify and rectify any emerging biases during the AI system’s lifecycle.

 

(iii) Safety and Security:

(a)    AI systems should be designed and developed with safety and security by design & default.

(b)   AI systems should be protected from unauthorized access, modification, or destruction.

(c)    Developers should implement robust security measures, such as encryption, access controls, and secure communication protocols, to safeguard AI systems and their data.

(d)   AI systems should undergo rigorous testing and validation to ensure they perform safely and reliably under normal and unexpected conditions.

(e)    Developers should establish incident response plans and mechanisms to promptly address any safety or security breaches.

 

(iv)  Human Control and Oversight:

(a)    AI systems should be subject to human control and oversight to ensure that they are used responsibly.

(b)   There should be mechanisms in place for data principals to intervene in the operation of AI systems if necessary.

(c)    Developers should implement human-in-the-loop or human-on-the-loop approaches, allowing for human intervention and final decision-making in critical or high-risk scenarios.

(d)   Clear protocols should be established for escalating decisions to human operators when AI systems encounter situations beyond their designed scope or when unexpected outcomes occur.

(e)    Regular human audits and reviews should be conducted to ensure AI systems are functioning as intended and aligned with human values and societal norms.

 

(ii)   Open Source and Interoperability:

(a)    The development of shared sector-neutral standards for AI systems shall leverage open source software and open standards to promote interoperability, transparency, and collaboration.

(b)   The IAIC shall encourage the participation of open source communities and stakeholders in the development of AI standards.

(c)    Developers should strive to use open source components and frameworks when building AI systems to facilitate transparency, reusability, and innovation.

(d)   AI systems should be designed with interoperability in mind, adhering to common data formats, protocols, and APIs to enable seamless integration and data exchange across different platforms and domains.

(e)    The IAIC shall promote the development of open benchmarks, datasets, and evaluation frameworks to assess and compare the performance of AI systems transparently.




Chapter X

Chapter X: CONTENT PROVENANCE


Section 23 - Content Provenance and Identification

(1)   AI systems that generate or manipulate content must implement mechanisms to identify the source of such content and maintain records of its origin. These mechanisms shall involve both human oversight and technological methods;

 

(2)   Accountability for tracking AI-generated content shall be determined by the specific use cases of the AI system, such that:

 

(i)    For AI systems classified as high-risk under Section 7(4), accountability shall extend beyond specific use cases to encompass all technological components of the AI system;

 

(ii)   For AI systems exempted under sub-section (3) of Section 11, accountability for tracking AI-generated content shall be proportionate to the system’s risk profile and potential impact. This shall focus on responsible disclosure and coordinated mitigation between providers and users or testers;

 

(iii) For end-users and business end-users of AI systems, accountability and potential liability for AI-generated content shall be examined based on factors such as:

(a)   Whether they intentionally misused or tampered with the AI system contrary to provided guidelines;

(b)   Whether they failed to exercise reasonable care and due diligence in the utilization of the AI system;

(c)    Whether they knowingly propagated or disseminated AI-generated content that could cause harm;

 

(3)   Developers, owners, and operators of AI systems classified as high-risk under sub-section (4) of Section 7 that are involved in generating or manipulating content shall be required to obtain and maintain adequate liability insurance coverage. The insurance coverage must include, but is not limited to:

(i)    Professional indemnity insurance to cover incidents involving inaccurate, inappropriate or defamatory AI-generated content;

(ii)   Cyber risk insurance to cover incidents related to data breaches, network security failures or other cyber incidents involving AI-generated content;

(iii) General commercial liability insurance to cover incidents causing third-party injury, damage or other legally liable scenarios involving AI-generated content.

 

(4)   The insurance coverage shall be proportionate to the risk level and potential impacts of the high-risk AI system, as determined by:

(i)    Its conceptual classification based on the sub-sections (3), and (4) of Section 4;

(ii)   Its technical characteristics evaluated as a Specific Purpose AI (SPAI) system under sub-section (4) of Section 5;

(iii) Its commercial factors such as user base, market influence, data integration, and revenue generation specified under Section 6.

 

(5)   The minimum insurance coverage required for high-risk AI content generation systems shall be:

(i)    For systems with potential widespread impact or lack of opt-out feasibility under Section 7(4)(a): INR 50 crores

(ii)   For systems with vulnerability factors or irreversible consequences under Section 7(4)(b): INR 25 crores

(iii) For other high-risk AI content generation systems under Section 7(4): INR 10 crores

 

(6)   Proof of adequate insurance coverage, in accordance with this Section, shall be provided to the IAIC annually by the developers, owners, and operators of high-risk AI content generation systems.

 

(7)   Failure to obtain and maintain the required insurance coverage shall be treated as a breach of compliance under Section 19, and the IAIC may take appropriate enforcement actions, including but not limited to:

(i)    Issuing warnings and imposing penalties

(ii)   Suspending or revoking the system’s certification

(iii) Prohibiting the deployment or operation of the AI system until compliance is achieved.

 

(8)   For AI systems not classified as high-risk under Section 7(4), it is recommended that developers, owners, and operators obtain appropriate insurance coverage to mitigate potential risks and liabilities associated with AI-generated content. The IAIC shall provide guidance on suitable insurance products and coverage levels based on the AI system’s risk profile and potential impacts.

 

 

(9)   Intermediaries that host, publish, or make available AI-generated content, including but not limited to online platforms, content-sharing services, and cloud service providers, shall implement reasonable measures to identify and mitigate potential risks associated with AI-generated content, particularly content classified as high-risk under sub-section (4) of Section 7:

 

(i)    For high-risk AI-generated content, intermediaries shall:

(a)   Conduct due diligence to assess the potential risks and impacts of the content;

(b)   Implement content moderation practices to detect and address harmful, illegal, or infringing content;

(c)    Maintain records and audit trails to enable traceability and attribution of the content;

(d)   Cooperate with authorities and provide relevant information upon lawful requests.

 

(ii)   Intermediaries shall establish clear & accessible policies and procedures for handling complaints, takedown requests, and legal notices related to AI-generated content, ensuring timely and appropriate action.

 

(iii) Intermediaries shall maintain adequate insurance coverage to compensate for potential damages or harm caused by high-risk AI-generated content they host, publish, or make available, as per the guidelines issued by the IAIC in consultation with the Insurance Regulatory and Development Authority of India (IRDAI).

 

(iv)  The IAIC, in consultation with relevant stakeholders, shall develop guidelines and best practices for intermediaries regarding the handling of AI-generated content, including but not limited to:

(a)    Risk assessment methodologies;

(b)   Content moderation practices;

(c)    Transparency and disclosure requirements;

(d)   Cooperation with authorities and law enforcement;

(e)    Liability and insurance coverage requirements.

 

(10)AI systems must use watermarking techniques to embed identifying information into generated or manipulated content in a manner that is robust, accessible, explainable, and capable of verifying the content’s authenticity and distinguishing AI-generated content from non-AI-generated content:

(i)    The liability, responsibility, and accountability for watermarking techniques, which embed identifying information in AI-generated content, shall also be determined according to the classification methods outlined in Chapter II of this Act in accordance with sub-section (2);

(ii)   The identifying watermark or information must be publicly accessible in a transparent manner, which may include publishing the watermark or making it available through an open API;

(iii) The IAIC shall develop and publish guidelines for implementing, licensing, and using watermarking and other identifying techniques in AI systems. These guidelines shall address the type of information to be embedded, licensing requirements, robustness of techniques, and accessibility of identifying information;

(iv)  The IAIC shall certify the use of watermarking techniques in AI systems and evaluate the effectiveness of these techniques in preventing the misuse of AI-generated content;

(v)   The IAIC shall establish and maintain a public registry of open-access technical methods to identify and examine AI-generated content, accessible to end-users, business users, and government officials. This registry shall provide clear instructions for using these methods and information on their validity;

 

(11)This Section shall apply to all AI systems that generate or manipulate content, regardless of the content’s purpose or intended use, including AI systems that generate text, images, audio, video, or any other forms of content in accordance with sub-section (2).

Chapter XI

Chapter XI: EMPLOYMENT AND INSURANCE

Section 24 - Employment and Skill Security Standards

(1) The IAIC shall develop consultative guidelines on:

(i)    the impact of high-risk AI systems on sector-specific employment opportunities in line with relevant sector-specific regulations and standards of employment;

(ii)   employment security in the context of the deployment of high-risk AI systems, emphasizing fair labour practices.

(1)   Data fiduciaries employing high-risk AI systems shall implement the following safeguards to protect the rights and livelihoods of affected employees:

(i)    Conduct impact assessments to identify potential job displacements, skill gaps, and other risks to employee well-being arising from the deployment of high-risk AI systems.

(ii)   Develop and implement mitigation strategies to address identified risks, such as:

(a)   Providing adequate notice and consultation to affected employees;

(b)   Offering retraining, upskilling, or reskilling programs to enable employees to adapt to new job requirements;

(c)   Exploring redeployment opportunities within the organization;

(d)   Providing fair compensation, severance packages, or outplacement support for employees whose jobs are eliminated.

 

(iii)  Establish grievance redressal mechanisms for employees to raise concerns related to the impact of high-risk AI systems on their employment and working conditions;

(iv)  Regularly monitor and review the effectiveness of safeguards and mitigation strategies every six months, and make necessary adjustments based on employee feedback and changing circumstances.

 

(2)   Employers deploying high-risk AI systems shall engage in meaningful consultation with their employees and relevant employee representatives, such as trade unions or works councils, to establish fair transition plans. These plans shall include:

 

(i)    Timely disclosure of information related to the deployment of high-risk AI systems, including the nature and scope of the systems, the expected impact on employment, and the proposed timeline for implementation.

(ii)   Opportunities for employees and their representatives to provide input and feedback on the transition plans, and to negotiate the terms and conditions of any retraining, redeployment, or alternative employment arrangements.

(iii)  Specific provisions for retraining and upskilling programs, including:

(a)   Identifying the skills and competencies required for new or modified job roles;

(b)   Developing and delivering training curricula in collaboration with relevant educational institutions, industry bodies, or skill development agencies;

(c)   Providing paid time off or financial support for employees to participate in training programs;

(d)   Establishing mechanisms for assessing and certifying the acquisition of new skills.

 

(iv)  Clear criteria and processes for redeployment, including:

(a)   Identifying suitable alternative roles within the organization;

(b)   Providing necessary training and support for employees to transition to new roles;

(c)   Ensuring that redeployed employees retain their seniority, benefits, and other entitlements to the extent possible.

 

(v)   Measures to support employees who may not be able to be retrained or redeployed, such as:

(a)    Offering voluntary separation or early retirement schemes with adequate compensation and benefits;

(b)   Providing outplacement services, job search assistance, or entrepreneurship support;

(c)    Collaborating with other employers, industry bodies, or government agencies to facilitate alternative employment opportunities.

(3)   Data fiduciaries or third-party institutions actively involved in the development, application, or research of high-risk AI systems shall contribute to the development of a skilled workforce capable of designing, developing, deploying, and working alongside such systems. This shall include:

 

(i)    Conducting skill gap analyses to identify the knowledge, skills, and competencies required for various roles in the AI ecosystem.

(ii)   Developing and delivering training programs, either independently or in collaboration with educational institutions, industry bodies, or skill development agencies, to impart the necessary skills and knowledge to their workforce.

(iii)  Providing opportunities for employees to gain practical experience in working with high-risk AI systems through internships, apprenticeships, or on-the-job training.

(iv)  Encouraging employees to pursue continuous learning and skill development, and providing the necessary resources and support for them to do so, such as:

(a)   Sponsoring employees to attend conferences, workshops, or training programs;

(b)   Providing access to online learning platforms, educational materials, or research publications;

(c)   Offering incentives or rewards for employees who acquire new skills or certifications relevant to their roles.

 

(v)   Collaborating with educational institutions to develop and deliver specialized courses, degree programs, or certification schemes related to AI, with a focus on the ethical, legal, and social implications of high-risk AI systems.

(vi)  Participating in industry-wide initiatives, such as skill standardization, curriculum development, or the creation of skill assessment and certification frameworks, to ensure a consistent and high-quality approach to AI skill development across the sector.

 

(4)   The obligations under sub-sections (2), (3), and (4) of this Section shall apply to data fiduciaries employing high-risk AI systems, provided they are:

(i)    Classified as Systemically Significant Digital Enterprises (SSDEs) under Chapter II of the Digital Competition Act, 2024[1], particularly:

(a)   Based on the quantitative and qualitative criteria specified in Section 5; or

(b)   Designated as SSDEs by the Competition Commission of India under Section 6, due to their significant presence in the relevant core digital service.

(ii)   Notified as Significant Data Fiduciaries under sub-section (1) of Section 10 of the Digital Personal Data Protection Act, 2023, based on factors such as:

(a)   The volume and sensitivity of personal data processed;

(b)   The risk to the rights of data principals;

(c)   The potential impact on the sovereignty, integrity, and security of India.

 

(5)   The IAIC shall encourage the development of skills related to open source software development and collaboration in the AI workforce through training programs, certifications, and other initiatives.

Substantive Provisions

 

Section 25 - Insurance Policy for AI Technologies

 

(1)   Developers, owners, and operators of high-risk AI systems, as classified under sub-section (4) of Section 7, shall be required to obtain and maintain comprehensive liability insurance coverage to manage and mitigate potential risks associated with the development, deployment, and operation of such systems.

 

(2)   The insurance coverage requirements for high-risk AI systems shall be proportionate to their risk level and potential impacts, as determined by:

(i)    Their conceptual classification based on sub-sections (3), and (4) of Section 4;

(ii)   Their technical characteristics evaluated as per the criteria under sub-section (4) of Section 5  for Specific Purpose AI (SPAI) systems;

(iii) Their commercial risk factors such as user base, market influence, data integration, and revenue generation specified under Section 6;

 

(3)   The minimum insurance coverage required for high-risk AI systems shall be:

(i)    For systems with potential widespread impact or lack of opt-out feasibility under Section 7(4)(a): INR 50 crores;

(ii)   For systems with vulnerability factors or irreversible consequences under Section 7(4)(b): INR 25 crores;

(iii) For other high-risk AI systems under Section 7(4): INR 10 crores.

 

(4)   The Insurance Regulatory and Development Authority of India (IRDAI) shall, in consultation with the IAIC and relevant stakeholders, specify the minimum insurance coverage standards for high-risk AI systems, which may include:

(i)    Professional indemnity insurance to cover incidents involving inaccurate, inappropriate, or defamatory AI-generated content;

(ii)   Cyber risk insurance to cover incidents related to data breaches, network security failures, or other cyber incidents;

(iii) General commercial liability insurance to cover incidents causing third-party injury, damage, or other legally liable scenarios.

 

(5)   For general purpose AI systems classified under sub-sections (2), and (3) of Section 5, the IAIC, in coordination with IRDAI, shall examine and determine appropriate insurance requirements, considering factors such as:

(i)    The scale and inherent purpose of the general purpose AI system;

(ii)   The potential risks and impacts associated with its multiple use cases across different sectors and domains;

(iii) The technical features and limitations that may affect its safety, security, and reliability;

(iv)  The commercial factors such as user base, market influence, and revenue generation.

 

(6)   Based on the examination under sub-section (5), the IAIC may recommend to IRDAI the development of specialized insurance products or coverage requirements for general purpose AI systems, which may include:

(i)    Umbrella liability insurance to cover a wide range of risks and liabilities arising from the diverse applications of the AI system;

(ii)   Parametric insurance based on predefined triggers or performance metrics to address the unique challenges in assessing and quantifying risks associated with general purpose AI;

(iii) Risk pooling or reinsurance arrangements to spread the risks among multiple insurers or stakeholders.

 

(7)   The IAIC and IRDAI shall collaborate to establish guidelines and best practices for underwriting, risk assessment, and claims handling related to general purpose AI systems, taking into account their distinct characteristics and potential impacts.

(8)   Developers, owners, and operators of general purpose AI systems shall be encouraged to maintain adequate insurance coverage based on the recommendations and guidelines issued by the IAIC and IRDAI under sub-sections (6) and (7).

(9)   Insurance providers offering AI-specific policies for high-risk systems must have adequate expertise, resources, and reinsurance arrangements to effectively assess risks, price premiums, and settle claims related to AI technologies.

(10)Developers, owners, and operators of high-risk AI systems shall submit proof of adequate insurance coverage to the IAIC as part of the registration and certification process outlined in Section 11.

 

(11)Failure to obtain and maintain the required insurance coverage for high-risk AI systems shall be treated as a breach of compliance under Section 19, and the IAIC may take appropriate enforcement actions, including:

(i)    Issuing warnings and imposing penalties;

(ii)   Suspending or revoking the system’s certification;

(iii) Prohibiting the deployment or operation of the AI system until compliance is achieved.

 

(12)The obligations under sub-sections (2), (3), and (4) of this Section shall apply to data fiduciaries employing high-risk AI systems, provided they are:

(i)    Classified as Systemically Significant Digital Enterprises (SSDEs) under Chapter II of the Digital Competition Act, 2024, particularly:

(a)    Based on the quantitative and qualitative criteria specified in Section 5; or

(b)   Designated as SSDEs by the Competition Commission of India under Section 6, due to their significant presence in the relevant core digital service.

 

(ii)   Notified as Significant Data Fiduciaries under sub-section (1) of Section 10 of the Digital Personal Data Protection Act, 2023, based on factors such as:

(a)    The volume and sensitivity of personal data processed;

(b)   The risk to the rights of data principals;

(c)    The potential impact on the sovereignty, integrity, and security of India.

 

(13) For AI systems not classified as high-risk under sub-section (4) of Section 7, obtaining insurance coverage is recommended but not mandatory. The IAIC shall provide guidance on suitable insurance products and coverage levels based on the AI system’s risk profile and potential impacts;

 

(14)The Insurance Regulatory and Development Authority of India (IRDAI), in consultation with the IAIC and relevant stakeholders, shall develop guidelines and best practices for underwriting, risk assessment, and claims handling related to AI technologies. These guidelines shall address:

 

(i)    Assessment methods to evaluate the unique risks and potential impacts of AI systems, taking into account their risk classification and associated factors as outlined in this Act;

(ii)   Premium calculation models that consider the risk profile, scale of deployment, and potential consequences of AI systems;

(iii) Claims processing standards that ensure timely, fair, and transparent settlement of claims related to AI systems;

(iv)  Data sharing and reporting requirements between insurers and the IAIC to facilitate the monitoring and analysis of AI-related incidents and claims;

(v)   Capacity building and training programs for insurance professionals to enhance their understanding of AI technologies and their associated risks;

 


[1] It is assumed that the Draft Digital Competition Act, 2024 proposed to the Ministry of Corporate Affairs in March 2024 is in force.

Chapters XII-XV

Chapter XII: APPEAL AND ALTERNATIVE DISPUTE RESOLUTION

Section 26 – Appeal to Appellate Tribunal

(1) The Appellate Tribunal established under the Telecom Regulatory Authority of India Act, 1997, shall also serve as the Appellate Tribunal for the purposes of this Act.

(2) Any person aggrieved by any direction, decision, or order of the IAIC under this Act may prefer an appeal to the Appellate Tribunal within a period of 60 days from the date on which a copy of the direction, decision, or order is received by the person.

(3) The Appellate Tribunal may entertain an appeal after the expiry of the said period of 60 days if it is satisfied that there was sufficient cause for not filing it within that period.

(4) On receipt of an appeal, the Appellate Tribunal may, after giving the parties to the appeal an opportunity of being heard, pass such orders thereon as it thinks fit, confirming, modifying, or setting aside the direction, decision, or order appealed against.

(5) The Appellate Tribunal shall send a copy of every order made by it to the parties to the appeal and to the IAIC.

(6) The appeal filed before the Appellate Tribunal shall be dealt with by it as expeditiously as possible, and endeavour shall be made by it to dispose of the appeal finally within 6 months from the date of receipt of the appeal.

(7) The Appellate Tribunal may, for the purpose of examining the legality, propriety, or correctness of any direction, decision, or order of the IAIC, on its own motion or otherwise, call for the records relevant to disposing of such appeal and make such orders as it thinks fit.

(8) The provisions of sections 14-I to 14K of the Telecom Regulatory Authority of India Act, 1997, shall, mutatis mutandis, apply to the Appellate Tribunal in the discharge of its functions under this Act, as they apply to it in the discharge of its functions under that Act.

(9) Any person aggrieved by any decision or order of the Appellate Tribunal may file an appeal to the Supreme Court within a period of 60 days from the date of communication of the decision or order of the Appellate Tribunal.

(10) The Appellate Tribunal shall endeavour to function as a digital office to the extent practicable, with the filing of appeals, hearings, and pronouncement of orders being conducted through digital means.

Section 27 – Orders passed by Appellate Tribunal to be executable as decree

(1) An order passed by the Appellate Tribunal under this Act shall be executable by it as a decree of civil court, and for this purpose, the Appellate Tribunal shall have all the powers of a civil court.

(2) Notwithstanding anything contained in sub-section (1), the Appellate Tribunal may transmit any order made by it to a civil court having local jurisdiction and such civil court shall execute the order as if it were a decree made by that court.

Section 28 – Alternate Dispute Resolution

If the IAIC is of the opinion that any complaint may be resolved by mediation, it may direct the parties concerned to attempt resolution of the dispute through such mediation by such mediator as the parties may mutually agree upon, or as provided for under any law for the time being in force in India.

We have provided a list of suggested provisions, which may be expected in the draft Act, but do not have any substantive necessity to be drafted.

Miscellaneous Provisions

 

CHAPTER XIII: MISCELLANEOUS

Section 29 - Power to Make Rules

(1) The Central Government may, by notification, make rules to carry out the provisions of this Act.

(2) In particular, and without prejudice to the generality of the foregoing power, such rules may provide for all or any of the following matters, namely:—

(a) The manner of appointment, qualifications, terms and conditions of service of the Chairperson and Members of the IAIC under sub-section (6) of Section 10;

(b) The form, manner, and fee for filing an appeal before the Appellate Tribunal under Section sub-section (2) of Section 26;

(c) The procedure to be followed by the Appellate Tribunal while dealing with an appeal under the sub-section (8) of Section 26;

(d) Any other matter which is required to be, or may be, prescribed, or in respect of which provision is to be made by rules.

(3) Every rule made under this Act shall be laid, as soon as may be after it is made, before each House of Parliament, while it is in session, for a total period of thirty days which may be comprised in one session or in two or more successive sessions, and if, before the expiry of the session immediately following the session or the successive sessions aforesaid, both Houses agree in making any modification in the rule or both Houses agree that the rule should not be made, the rule shall thereafter have effect only in such modified form or be of no effect, as the case may be; so, however, that any such modification or annulment shall be without prejudice to the validity of anything previously done under that rule.

Section 30 - Power to Make Regulations

(1) The IAIC may, by notification, make regulations consistent with this Act and the rules made thereunder to carry out the provisions of this Act.

(2) In particular, and without prejudice to the generality of the foregoing power, such regulations may provide for all or any of the following matters, namely —

(a) The criteria and process for the classification of AI systems based on their conceptual, technical, commercial, and risk-based factors, as specified in Sections 4, 5, 6, and 7;

(b) The standards, guidelines, and best practices for the development, deployment, and use of AI systems, including those related to transparency, explainability, fairness, safety, security, and human oversight, as outlined in Section 13;

(c) The procedures and requirements for the registration and certification of AI systems, including the criteria for exemptions and the maintenance of the National Registry of Artificial Intelligence Use Cases, as specified in Sections 11 and 12;

(d) The guidelines and mechanisms for post-deployment monitoring of high-risk AI systems, as outlined in Section 17;

(e) The procedures and protocols for third-party vulnerability reporting, incident reporting, and responsible information sharing, as mentioned in Sections 18, 19, and 20;

(f) The guidelines and requirements for content provenance and identification in AI-generated content, as specified in Section 23;

(g) The insurance coverage requirements and risk assessment procedures for entities developing or deploying high-risk AI systems, as outlined in Section 25;

(h) Any other matter which is required to be, or may be, prescribed, or in respect of which provision is to be made by regulations.

(3) Every regulation made under this Act shall be laid, as soon as may be after it is made, before each House of Parliament, while it is in session, for a total period of thirty days which may be comprised in one session or in two or more successive sessions, and if, before the expiry of the session immediately following the session or the successive sessions aforesaid, both Houses agree in making any modification in the regulation or both Houses agree that the regulation should not be made, the regulation shall thereafter have effect only in such modified form or be of no effect, as the case may be; so, however, that any such modification or annulment shall be without prejudice to the validity of anything previously done under that regulation.

Section 31 - Protection of Action Taken in Good Faith

No suit, prosecution or other legal proceedings shall lie against the Central Government, the IAIC, its Chairperson and any Member, officer or employee thereof for anything which is done or intended to be done in good faith under the provisions of this Act or the rules made thereunder.

 

Section 32 – Offenses and Penalties

(1) Any person who contravenes or fails to comply with any provision of this Act, or the rules or regulations made thereunder, shall be liable to penalties as specified in this Section.

(2) Systemically Significant Digital Enterprises (SSDEs) under the Digital Competition Act, 2024, that employ high-risk AI systems and fail to comply with the provisions of this Act shall be liable to the following penalties:

(a) For the first offense, a fine of up to 5% of the SSDE’s total worldwide turnover in the preceding financial year or INR 50 crores, whichever is higher;

(b) For subsequent offenses, a fine of up to 10% of the SSDE’s total worldwide turnover in the preceding financial year or INR 100 crores, whichever is higher.

(3) Significant Data Fiduciaries (SDFs) under the Digital Personal Data Protection Act, 2023, that employ high-risk AI systems and fail to comply with the provisions of this Act shall be liable to the following penalties:

(a) For the first offense, a fine of up to 4% of the SDF’s total worldwide turnover in the preceding financial year or INR 25 crores, whichever is higher;

(b) For subsequent offenses, a fine of up to 8% of the SDF’s total worldwide turnover in the preceding financial year or INR 50 crores, whichever is higher.

(4) Entities developing, deploying, or operating high-risk AI systems, other than those covered under sub-sections (2) and (3), that fail to comply with the provisions of this Act shall be liable to the following penalties:

(a) For the first offense, a fine of up to INR 10 crores;

(b) For subsequent offenses, a fine of up to INR 25 crores.

(5) In addition to the financial penalties specified in sub-sections (2), (3), and (4), the IAIC may take the following actions against non-compliant entities:

(a) Issuing warnings and directions for remedial measures;

(b) Suspending or revoking the certification of the AI system;

(c) Prohibiting the deployment or operation of the AI system until compliance is achieved;

(d) Mandating independent audits of the entity’s processes at their own cost;

(e) Recommending the temporary or permanent suspension of the entity’s AI-related operations in cases of persistent or egregious non-compliance.

(6) Entities developing, deploying, or operating AI systems exempted from certification under Section 11(3) shall be encouraged to voluntarily comply with the provisions of this Act. Non-compliance by such entities shall not attract any penalties, provided that:

(a) The AI system remains within the scope of the exemption criteria specified in Section 11(3);

(b) The entity maintains the incident reporting and response protocols as required under Section 11(4);

(c) The entity cooperates with the IAIC in the event of any investigation or inquiry related to the AI system.

(7) The IAIC shall establish clear guidelines for the determination and imposition of penalties, ensuring transparency, proportionality, and due process. Factors such as the nature, severity, and duration of the non-compliance, the entity’s willingness to cooperate and take remedial measures, and the potential harm caused by the non-compliance shall be considered while deciding the quantum of penalties.

(8) Any penalty imposed under this Section shall not prevent the initiation of criminal proceedings against the offender if the same act or omission constitutes an offense under any other law for the time being in force.

(9) All sums realized by way of penalties under this Act shall be credited to the Consolidated Fund of India.

CHAPTER XIV: REPEAL AND SAVINGS

Section 33 - Savings Clause

(1) The provisions of this Act shall be in addition to, and not in derogation of, the provisions of any other law for the time being in force.

(2) Nothing in this Act shall affect the validity of any action taken or decision made by any entity in relation to the development, deployment, or use of AI systems prior to the commencement of this Act, provided such action or decision was in accordance with the laws in force at that time.

(3) Any investigation, legal proceeding, or remedy in respect of any right, privilege, obligation, liability, penalty, or punishment under any law, initiated or arising before the commencement of this Act, shall be continued, enforced, or imposed as if this Act had not been enacted.

(4) Nothing in this Act shall be construed as preventing the Central Government from making any rules or regulations, or taking any action, which it considers necessary for the purpose of removing any difficulty that may arise in giving effect to the provisions of this Act.

CHAPTER XV: FINAL PROVISIONS

Section 34 - Power to Remove Difficulties

(1) If any difficulty arises in giving effect to the provisions of this Act, the Central Government may, by order published in the Official Gazette, make such provisions, not inconsistent with the provisions of this Act as may appear to it to be necessary for removing the difficulty.

(2)    No such order shall be made under this Section after the expiry of a period of five years from the commencement of this Act.

(3)    Every order made under this Section shall be laid, as soon as may after it is made before each House of Parliament.

 

Section 35 - Amendment of [Other Legislation]

(1) The Digital Personal Data Protection Act, 2023 shall be amended as follows:

(a) In Section 2, after the clause defining “Data Principal”, the following clause shall be inserted:

“‘Artificial Intelligence system’ shall have the same meaning as assigned to it under clause (a) of Section 2 of the Artificial Intelligence (Development & Regulation) Act, 2023.”

(b) In Section 7, after the sub-section on “Legitimate Uses”, the following sub-section shall be inserted:

“The processing of personal data by an Artificial Intelligence system shall be considered a legitimate purpose under this Act, subject to compliance with the provisions of the Artificial Intelligence (Development & Regulation) Act, 2023 and the rules and regulations made thereunder.”

(2) The Competition Act, 2002 shall be amended as follows:

(a) In Section 2, after the clause defining “Relevant Market”, the following clause shall be inserted:

“‘Artificial Intelligence system’ shall have the same meaning as assigned to it under clause (a) of Section 2 of the Artificial Intelligence (Development & Regulation) Act, 2023.”

(b) In Section 19, after sub-section (6), the following sub-section shall be inserted:

“(7) While determining whether an agreement has an appreciable adverse effect on competition under sub-section (1), the Commission shall also consider the impact of the use of Artificial Intelligence systems by the parties to the agreement, in accordance with the factors specified in Section 20(4) of the Artificial Intelligence (Development & Regulation) Act, 2023.”

(3) The Patents Act, 1970 shall be amended as follows:

(a) In Section 2, after clause (1)(j), the following clause shall be inserted:

“(ja) ‘Artificial Intelligence system’ shall have the same meaning as assigned to it under clause (a) of Section 2 of the Artificial Intelligence (Development & Regulation) Act, 2023.”

(b) In Section 3, after clause (k), the following clause shall be inserted:

“(l) a computer programme per se, including an Artificial Intelligence system, unless it is claimed in conjunction with a novel hardware.”

(4) The Copyright Act, 1957 shall be amended as follows:

(a) In Section 2, after clause (ffc), the following clause shall be inserted:

“(ffd) ‘Artificial Intelligence system’ shall have the same meaning as assigned to it under clause (a) of Section 2 of the Artificial Intelligence (Development & Regulation) Act, 2023.”

(b) In Section 13, after sub-section (3), the following sub-section shall be inserted:

“(3A) In the case of a work generated by an Artificial Intelligence system, the author shall be the person who causes the work to be created, unless otherwise provided by the Artificial Intelligence (Development & Regulation) Act, 2023 or the rules and regulations made thereunder.”

(5) The Consumer Protection Act, 2019 shall be amended as follows:

(a) In Section 2, after clause (1), the following clause shall be inserted:

“(1A) ‘Artificial Intelligence system’ shall have the same meaning as assigned to it under clause (a) of Section 2 of the Artificial Intelligence (Development & Regulation) Act, 2023.”

(b) In Section 2, after clause (47), the following clause shall be inserted:

“(47A) ‘Unfair trade practice’ includes the use of an Artificial Intelligence system in a manner that violates the provisions of the Artificial Intelligence (Development & Regulation) Act, 2023 or the rules and regulations made thereunder, and causes loss or injury to the consumer.”

 

new artificial intelligence strategy for india

Version 1.0

November 7, 2023

Authors: Abhivardhan & Akash Manwani, Indic Pacific Legal Research

robot made up of hindi alphabets.jpg



कृत्रिम बुद्धिमत्ता (विकास एवं विनियमन) अधिनियम, २०२३

The Hindi edition of AIACT.IN Version 3.

धारा 1 - संक्षिप्त शीर्षक और प्रारंभ


(1) इस अधिनियम को कृत्रिम बुद्धिमत्ता (विकास एवं विनियमन) अधिनियम, 2023 कहा जा सकता है।


(2) यह उस तिथि से प्रभावी होगा जिसे केंद्रीय सरकार, राजपत्र में अधिसूचना द्वारा नियुक्त करे, और इस अधिनियम के विभिन्न उपबंधों के लिए भिन्न-भिन्न तिथियाँ नियुक्त की जा सकती हैं और किसी भी ऐसे उपबंध में इस अधिनियम के प्रारंभ का संदर्भ उस उपबंध के प्रभावी होने के संदर्भ में माना जाएगा।



 

धारा 2 – परिभाषाएँ


[कृपया ध्यान दें: हमने इस विधेयक में सभी परिभाषाएँ प्रदान नहीं की हैं, जो आवश्यक हो सकती हैं। हमने केवल उन परिभाषाओं को प्रदान किया है जो विधेयक की विधायी मंशा को स्पष्ट करने में अधिक महत्वपूर्ण हैं।]


इस विधेयक में, जब तक संदर्भ से अन्यथा अपेक्षित न हो—


(क) "कृत्रिम बुद्धिमत्ता", "एआई", "एआई तकनीक", "कृत्रिम बुद्धिमत्ता तकनीक", "कृत्रिम बुद्धिमत्ता अनुप्रयोग", "कृत्रिम बुद्धिमत्ता प्रणाली" और "एआई सिस्टम" का अर्थ एक सूचना प्रणाली है जो दी गई इनपुट्स के आधार पर आउटपुट उत्पन्न करने के लिए कम्प्यूटेशनल, सांख्यिकीय, या मशीन-लर्निंग तकनीकों का उपयोग करती है। ऐसी प्रणाली में तकनीकी, वाणिज्यिक, और क्षेत्रीय प्रकृति की विभिन्न उप-श्रेणियों का एक विविध वर्ग शामिल होता है, जैसा कि धारा 3 में निर्धारित वर्गीकरण के साधनों के अनुसार है।


(ख) "एआई-जनित सामग्री" का अर्थ है सामग्री, भौतिक या डिजिटल, जो कृत्रिम बुद्धिमत्ता तकनीक द्वारा बनाई गई या महत्वपूर्ण रूप से संशोधित की गई है, जिसमें टेक्स्ट, छवियाँ, ऑडियो, और वीडियो शामिल हैं, जो विभिन्न तकनीकों के माध्यम से बनाई गई हैं, जो कृत्रिम बुद्धिमत्ता अनुप्रयोग के परीक्षण मामले या उपयोग मामले के अधीन हैं।


(ग) "अल्गोरिदमिक पूर्वाग्रह" में शामिल हैं—


(i) कृत्रिम बुद्धिमत्ता उत्पाद, सेवा, या प्रणाली में निहित तकनीकी सीमाएँ जो प्रसंस्करण, विश्लेषण, या आउटपुट उत्पन्न करने में प्रणालीगत और दोहराने योग्य त्रुटियों की ओर ले जाती हैं, जिसके परिणामस्वरूप उद्देश्यपूर्ण, निष्पक्ष, या इच्छित परिणामों से विचलन होता है; और


(ii) कृत्रिम बुद्धिमत्ता उत्पादों, सेवाओं और प्रणालियों में तकनीकी सीमाएँ जो एआई के डिजाइन, विकास और संचालन चरणों से उत्पन्न होती हैं, जिसमें शामिल हैं, लेकिन सीमित नहीं हैं:


(a) प्रोग्रामिंग त्रुटियाँ;

(b) दोषपूर्ण अल्गोरिदमिक तर्क; और

(c) मॉडल प्रशिक्षण और सत्यापन में कमियाँ, जिसमें शामिल हैं, लेकिन सीमित नहीं हैं:

  (1) मॉडल प्रशिक्षण के लिए उपयोग किए गए अपूर्ण या अपर्याप्त डेटा;


(घ) "अपील न्यायाधिकरण" का अर्थ है दूरसंचार विवाद निपटान और अपील न्यायाधिकरण जो दूरसंचार नियामक प्राधिकरण अधिनियम, 1997 की धारा 14 के तहत स्थापित है;


(ङ) "व्यावसायिक अंतिम-उपयोगकर्ता" का अर्थ है एक अंतिम-उपयोगकर्ता जो -


(i) एक व्यावसायिक या पेशेवर गतिविधि में संलग्न है और ऐसी गतिविधि के दौरान एक एआई प्रणाली का उपयोग करता है; या


(ii) एक सरकारी एजेंसी या सार्वजनिक प्राधिकरण जो अपने आधिकारिक कार्यों या सार्वजनिक सेवाओं के प्रावधान के प्रदर्शन में एक एआई प्रणाली का उपयोग करता है।


(च) "बौद्धिक संपदा सुरक्षा के संयोजन" का अर्थ है कृत्रिम बुद्धिमत्ता प्रणालियों की अद्वितीय विशेषताओं और घटकों को सुरक्षित करने के लिए विभिन्न बौद्धिक संपदा अधिकारों, जैसे कॉपीराइट, पेटेंट, ट्रेडमार्क, व्यापार रहस्य, और डिजाइन अधिकारों का एकीकृत आवेदन;


(छ) "सामग्री उत्पत्ति" का अर्थ है एआई-जनित सामग्री की उत्पत्ति, प्रामाणिकता, और इतिहास स्थापित करने के लिए तकनीकों के एक सेट का उपयोग करके सामग्री की पहचान, ट्रैकिंग, और वाटरमार्किंग, जिसमें शामिल हैं:


(i) सामग्री उत्पन्न करने के लिए उपयोग किए गए स्रोत डेटा, मॉडल, और एल्गोरिदम;


(ii) सामग्री के निर्माण, संशोधन, और वितरण में शामिल व्यक्ति या संस्थाएं;


(iii) सामग्री निर्माण की तारीख, समय, और स्थान और कोई भी बाद के संशोधन;


(iv) सामग्री का इरादा उद्देश्य, संदर्भ, और लक्षित दर्शक;


(v) एआई-जनित सामग्री के निर्माण में उपयोग की गई कोई भी बाहरी सामग्री, उद्धरण, या संदर्भ, जिसमें ऐसी बाहरी स्रोतों की उत्पत्ति शामिल है; और


(vi) सामग्री की कस्टडी की श्रृंखला और सामग्री द्वारा किए गए कोई भी परिवर्तन या पुनरावृत्तियां, जो एक सामग्री और उद्धरण/संदर्भ लूप का निर्माण करती हैं जिससे ट्रेसबिलिटी और उत्तरदायित्व सक्षम होता है।


(ज) "कॉर्पोरेट शासन" का अर्थ है एक संगठन द्वारा निर्देशित और नियंत्रित किए जाने वाले नियमों, प्रथाओं, और प्रक्रियाओं की प्रणाली, जिसमें शामिल हैं वे तंत्र जिनके माध्यम से कंपनियां और संगठन अपने हितधारकों, जिनमें कर्मचारी, शेयरधारक, ग्राहक, और जनता शामिल हैं, के साथ अपने संबंधों में उत्तरदायित्व, निष्पक्षता, और पारदर्शिता सुनिश्चित करते हैं।


(झ) "डेटा" का अर्थ है जानकारी, तथ्य, अवधारणाओं, राय या निर्देशों का एक प्रतिनिधित्व जो मानवों या स्वचालित या संवर्धित माध्यमों द्वारा संचार, व्याख्या या प्रसंस्करण के लिए उपयुक्त है;


(ञ) "डेटा फिडुशियरी" का अर्थ है कोई भी व्यक्ति जो अकेले या अन्य व्यक्तियों के साथ मिलकर व्यक्तिगत डेटा के प्रसंस्करण के उद्देश्य और साधनों को निर्धारित करता है;


(ट) "डेटा पोर्टेबिलिटी" का अर्थ है डेटा प्रधान का अपनी व्यक्तिगत डेटा को संरचित, सामान्यतः उपयोग किए गए, और मशीन-पठनीय प्रारूप में अनुरोध और प्राप्त करने की क्षमता, और उस डेटा को एक अन्य डेटा फिडुशियरी को स्थानांतरित करने की क्षमता, जहां:

(i) व्यक्तिगत डेटा को डेटा प्रधान द्वारा डेटा फिडुशियरी को प्रदान किया गया है;

(ii) प्रसंस्करण सहमति या अनुबंध के प्रदर्शन पर आधारित है; और

(iii) प्रसंस्करण स्वचालित माध्यमों द्वारा किया गया है।

(ठ) "डेटा प्रधान" का अर्थ है वह व्यक्ति जिसका व्यक्तिगत डेटा संबंधित है और जहां ऐसा व्यक्ति—

(i) एक बच्चा है, उसमें ऐसे बच्चे के माता-पिता या वैध संरक्षक शामिल हैं;

(ii) एक विकलांग व्यक्ति है, उसमें उसके पक्ष में कार्यरत वैध संरक्षक शामिल है;


(ड) "डेटा संरक्षण अधिकारी" का अर्थ है एक व्यक्ति जिसे डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 की धारा 10 की उप-धारा (2) के खंड (a) के तहत महत्वपूर्ण डेटा फिडुशियरी द्वारा नियुक्त किया गया है;


(ढ) "डिजिटल कार्यालय" का अर्थ है एक कार्यालय जो एक ऑनलाइन तंत्र अपनाता है जिसमें सूचना, शिकायत, संदर्भ, निर्देश, या अपील प्राप्ति से निपटान तक की सभी प्रक्रियाएँ ऑनलाइन या डिजिटल मोड में संचालित होती हैं;


(ण) "डिजिटल व्यक्तिगत डेटा" का अर्थ डिजिटल रूप में व्यक्तिगत डेटा है;


(त) "डिजिटल सार्वजनिक बुनियादी ढांचा" या "डीपीआई" का अर्थ है वे अंतर्निहित डिजिटल प्लेटफॉर्म, नेटवर्क, और सेवाएँ जो जनता को आवश्यक डिजिटल सेवाओं की आपूर्ति में सक्षम बनाते हैं, जिनमें शामिल हैं, लेकिन सीमित नहीं हैं:


(i) डिजिटल पहचान प्रणाली जो व्यक्तियों और व्यवसायों के लिए सुरक्षित और सत्यापन योग्य पहचान प्रदान करती हैं;


(ii) डिजिटल भुगतान प्रणाली जो कुशल, पारदर्शी, और समावेशी वित्तीय लेन-देन की सुविधा प्रदान करती हैं;


(iii) डेटा विनिमय प्लेटफॉर्म जो विभिन्न क्षेत्रों और हितधारकों के बीच डेटा के सुरक्षित और अंतर-संचालनीय साझाकरण को सक्षम बनाते हैं;


(iv) डिजिटल रजिस्ट्रियां और डेटाबेस जो विभिन्न सार्वजनिक और निजी सेवाओं के लिए आधिकारिक जानकारी के स्रोत के रूप में कार्य करते हैं;


(v) ओपन एप्लीकेशन प्रोग्रामिंग इंटरफेस (एपीआई) और मानक जो डिजिटल पारिस्थितिकी तंत्र में विभिन्न अभिनेताओं के बीच नवाचार, अंतर-संचालनीयता, और सहयोग को बढ़ावा देते हैं।


(थ) "अंतिम-उपयोगकर्ता" का अर्थ है -


(i) एक व्यक्ति जो व्यक्तिगत, घरेलू या पारिवारिक उद्देश्यों के लिए सीधे या परोक्ष रूप से एक एआई प्रणाली का अंततः उपयोग करता है या करने का इरादा रखता है; या


(ii) एक इकाई, जिसमें एक व्यवसाय या संगठन शामिल है, जो व्यक्तियों को एक उत्पाद, सेवा, या अनुभव प्रदान करने या पेश करने के लिए एक एआई प्रणाली का उपयोग करती है, चाहे वह शुल्क के लिए हो या मुफ्त में।


(द) "ज्ञान संपत्ति" में शामिल हैं, लेकिन सीमित नहीं हैं:


(i) बौद्धिक संपदा अधिकार जिनमें पेटेंट, कॉपीराइट, ट्रेडमार्क, और औद्योगिक डिजाइनों सहित;

(ii) दस्तावेजीकृत ज्ञान, जिसमें शोध रिपोर्ट, तकनीकी मैनुअल और औद्योगिक प्रथाएँ एवं मानक शामिल हैं;

(iii) संगठन की मानव पूंजी में निवास कर रहे अघोषित ज्ञान और विशेषज्ञता, जैसे विशेष कौशल, अनुभव, और जानकारियाँ;

(iv) संगठनात्मक प्रक्रियाएँ, प्रणालियाँ, और पद्धतियाँ जो ज्ञान के प्रभावी कब्जे, संगठन, और उपयोग को सक्षम करती हैं;

(v) ग्राहक से संबंधित ज्ञान, जैसे ग्राहक डेटा, प्रतिक्रिया, और ग्राहक आवश्यकताओं और प्राथमिकताओं की अंतर्दृष्टियाँ;

(vi) डेटा विश्लेषण से प्राप्त ज्ञान, जिसमें पैटर्न, रुझान, और पूर्वानुमान मॉडल शामिल हैं; और

(vii) क्रॉस-फंक्शनल टीमों, अभ्यास समुदायों, और ज्ञान-साझाकरण पहलों के माध्यम से उत्पन्न सहयोगी ज्ञान।


(ध) "ज्ञान प्रबंधन" का अर्थ है कृत्रिम बुद्धिमत्ता प्रणालियों के विकास, कार्यान्वयन, और विनियमन से संबंधित ज्ञान संपत्तियों को कब्जे, संगठन, साझाकरण, और उपयोग करने के लिए संगठनों द्वारा अपनाई गई व्यवस्थित प्रक्रियाएँ और विधियाँ;


(न) "आईएआईसी" का अर्थ है भारतीय कृत्रिम बुद्धिमत्ता परिषद, एक वैधानिक और नियामक निकाय जो कृत्रिम बुद्धिमत्ता प्रणालियों के विकास और विनियमन की निगरानी करने और सरकारी निकायों, मंत्रालयों, और विभागों में कृत्रिम बुद्धिमत्ता शासन का समन्वय करने के लिए स्थापित है;


(प) "अंतर्निहित उद्देश्य", और "इच्छित उद्देश्य" का अर्थ है वह तकनीकी उद्देश्य जिसके लिए कृत्रिम बुद्धिमत्ता तकनीक को डिजाइन, विकसित, और तैनात किया गया है, और यह उन विशिष्ट कार्यों, कार्यों, और क्षमताओं को शामिल करता है जिन्हें कृत्रिम बुद्धिमत्ता तकनीक को पूरा करने या प्राप्त करने का इरादा है;


(फ) "बीमा नीति" का अर्थ अनुसंधान एवं विकास, उत्पादन, और कृत्रिम बुद्धिमत्ता तकनीकों के कार्यान्वयन के लिए बीमा के उपाय और आवश्यकताएँ हैं;


(ब) "अंतर-संचालनिकता विचार" का अर्थ है वे तकनीकी, कानूनी, और संचालन संबंधी कारक जो कृत्रिम बुद्धिमत्ता प्रणालियों को निर्बाध रूप से एक साथ कार्य करने, जानकारी का आदान-प्रदान करने, और विभिन्न प्लेटफार्मों और पर्यावरणों में संचालित करने में सक्षम बनाते हैं, जिसमें शामिल हैं:


(i) बौद्धिक संपदा सुरक्षा के संयोजन, जिनमें कॉपीराइट, पेटेंट, ट्रेडमार्क, और डिजाइन अधिकार शामिल हैं, यह सुनिश्चित करना कि वे कृत्रिम बुद्धिमत्ता प्रणालियों की अंतर-संचालनिकता और उनके संचालन और सुधार के लिए आवश्यक डेटा और ज्ञान संपत्तियों का उपयोग करने की क्षमता को अनावश्यक रूप से बाधित न करें;


(ii) कृत्रिम बुद्धिमत्ता में नवाचार को प्रोत्साहित करने के लिए बौद्धिक संपदा सुरक्षा की आवश्यकता को संतुलित करना, खासकर जब वे व्यक्तियों और सार्वजनिक भलाई को प्रभावित करने वाले निर्णय-निर्माण प्रक्रियाओं में उपयोग की जाती हैं;


(iii) तकनीकी मानकों, एप्लीकेशन प्रोग्रामिंग इंटरफेस (एपीआई), और अन्य तंत्रों को विकसित करना जो कृत्रिम बुद्धिमत्ता प्रणालियों के बीच निर्बाध एकीकरण और संचार को सुविधा प्रदान करते हैं, जबकि बौद्धिक संपदा अधिकारों का सम्मान करते हैं और प्रणालियों की सुरक्षा और अखंडता बनाए रखते हैं;


(iv) कृत्रिम बुद्धिमत्ता मॉडल के प्रशिक्षण में कॉपीराइट-संरक्षित कार्यों के उपयोग के कानूनी और नैतिक प्रभावों को संबोधित करना, जिसमें संगीत, छवियाँ, और टेक्स्ट शामिल हैं, और यह सुनिश्चित करना कि ऐसा उपयोग मौजूदा बौद्धिक संपदा अधिकारों के ढांचे के साथ संगत है; और


(v) खुले और अंतर-संचालनीय कृत्रिम बुद्धिमत्ता ढांचे, पुस्तकालयों, और उपकरणों के विकास को बढ़ावा देना जो डेवलपर्स को मौजूदा कृत्रिम बुद्धिमत्ता तकनीकों पर निर्माण करने और नए अनुप्रयोगों को बनाने में सक्षम बनाते हैं, जबकि बौद्धिक संपदा अधिकारों का सम्मान करते हुए और एक जीवंत और प्रतिस्पर्धी कृत्रिम बुद्धिमत्ता पारिस्थितिकी तंत्र को बढ़ावा देते हैं।


(भ) "मुक्त स्रोत सॉफ्टवेयर" का अर्थ है कंप्यूटर सॉफ्टवेयर जिसे उसके स्रोत कोड के साथ वितरित किया जाता है और अध्ययन, परिवर्तन, और सॉफ्टवेयर को किसी भी व्यक्ति और किसी भी उद्देश्य के लिए वितरित करने के अधिकार के साथ लाइसेंस प्राप्त है।


(म) "राष्ट्रीय कृत्रिम बुद्धिमत्ता उपयोग मामले रजिस्ट्री" का अर्थ है कृत्रिम बुद्धिमत्ता तकनीकों के उपयोग मामलों की एक राष्ट्रीय-स्तरीय डिजिटाइज्ड रजिस्ट्री, जो उनके तकनीकी, वाणिज्यिक और जोखिम-आधारित विशेषताओं पर आधारित है, जिसे केंद्रीय सरकार द्वारा मानकीकरण और प्रमाणन उद्देश्यों के लिए बनाए रखा जाता है;


(य) "व्यक्ति" में शामिल हैं—


(i) एक व्यक्ति;

(ii) एक हिंदू अविभाजित परिवार;

(iii) एक कंपनी;

(iv) एक फर्म;

(v) व्यक्तियों का एक संघ या व्यक्तियों का एक निकाय, चाहे निगमित हो या नहीं;

(vi) राज्य; और

(vii) हर कृत्रिम न्यायिक व्यक्ति, जो उपरोक्त किसी भी उप-खंड में नहीं आता है;


(र) "तैनाती के बाद निगरानी" का अर्थ है डेटा फिडुशियरी या एआई सिस्टम के तीसरे पक्ष के प्रदाताओं द्वारा उन कृत्रिम बुद्धिमत्ता प्रणालियों के उपयोग से प्राप्त अनुभव को इकट्ठा करने और समीक्षा करने के लिए की गई सभी गतिविधियाँ जो वे बाजार में रखते हैं या सेवा में रखते हैं;


(ल) "गुणवत्ता मूल्यांकन" का अर्थ है कृत्रिम बुद्धिमत्ता प्रणालियों की तकनीकी, नैतिक, और वाणिज्यिक पहलुओं के आधार पर गुणवत्ता का मूल्यांकन और निर्धारण;


(व) "महत्वपूर्ण डेटा फिडुशियरी" का अर्थ है कोई भी डेटा फिडुशियरी या डेटा फिडुशियरी का वर्ग जिसे केंद्रीय सरकार द्वारा डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 की धारा 10 के तहत अधिसूचित किया जा सकता है;


(श) "प्रणालीगत रूप से महत्वपूर्ण डिजिटल उद्यम" (एसएसडीई) का अर्थ है एक इकाई जो डिजिटल प्रतिस्पर्धा अधिनियम, 2024 के अध्याय II के तहत इस प्रकार वर्गीकृत है, आधारित:

(i) डिजिटल प्रतिस्पर्धा अधिनियम, 2024 की धारा 5 में निर्दिष्ट मात्रात्मक और गुणात्मक मानदंडों पर; या

(ii) डिजिटल प्रतिस्पर्धा अधिनियम, 2024 की धारा 6 के तहत भारत प्रतिस्पर्धा आयोग द्वारा नामांकन पर, प्रासंगिक कोर डिजिटल सेवा में इकाई की महत्वपूर्ण उपस्थिति के कारण।


(ष) "सामाजिक-तकनीकी" का अर्थ है यह मान्यता कि कृत्रिम बुद्धिमत्ता प्रणालियाँ केवल तकनीकी कृतियां नहीं हैं बल्कि व्यापक सामाजिक संदर्भों, संगठनात्मक संरचनाओं, और मानव-प्रौद्योगिकी इंटरफेस में समाहित हैं, जिससे उत्तरदायी और प्रभावी एआई शासन सुनिश्चित करने के लिए सामाजिक और तकनीकी दोनों पहलुओं को ध्यान में रखना और सामंजस्य स्थापित करना आवश्यक है;


(स) "राज्य" का अर्थ भारत के संविधान के अनुच्छेद 12 के तहत परिभाषित राज्य के रूप में माना जाएगा;


(ह) "रणनीतिक क्षेत्र" का अर्थ विदेशी मुद्रा प्रबंधन (विदेशी निवेश) दिशानिर्देश, 2022 में परिभाषित रणनीतिक क्षेत्र है, और केंद्रीय सरकार द्वारा उपयुक्त माने गए किसी अन्य क्षेत्र या उप-क्षेत्र को शामिल करता है;


(ऋ) "प्रशिक्षण डेटा" का अर्थ डेटा है जो एक कृत्रिम बुद्धिमत्ता प्रणाली को उसके सीखने योग्य मापदंडों को फिट करने के लिए प्रशिक्षित करने के लिए उपयोग किया जाता है, जिसमें एक न्यूरल नेटवर्क के वेट शामिल हैं;


(क) "परीक्षण डेटा" का अर्थ डेटा है जो कृत्रिम बुद्धिमत्ता तकनीक के अपेक्षित प्रदर्शन की पुष्टि करने के लिए प्रशिक्षण और सत्यापन के अधीन कृत्रिम बुद्धिमत्ता प्रणाली की स्वतंत्र मूल्यांकन प्रदान करने के लिए उपयोग किया जाता है, इससे पहले कि उसे बाजार में रखा जाए या सेवा में रखा जाए;


(ख) "उपयोग मामला" का अर्थ कृत्रिम बुद्धिमत्ता तकनीक का एक विशिष्ट अनुप्रयोग है, उनके अंतर्निहित उद्देश्य के अधीन, एक विशेष समस्या को हल करने या वांछित परिणाम प्राप्त करने के लिए;


(ग) "संपूर्ण-सरकार दृष्टिकोण" का अर्थ है एक सहयोगात्मक और एकीकृत शासन विधि जिसमें सभी सरकारी संस्थाएं, जिनमें मंत्रालय, विभाग, और एजेंसियाँ शामिल हैं, एक समन्वित तरीके से काम करती हैं ताकि एकीकृत नीति उद्देश्यों को प्राप्त किया जा सके, संसाधनों के उपयोग को अनुकूलित किया जा सके, और जनता को प्रभावी रूप से सेवाएँ प्रदान की जा सकें।


व्याख्यात्मक टिप्पणी: उपरोक्त परिभाषाएँ इस विधेयक की विधायी मंशा को स्पष्ट करने के लिए आवश्यक प्रमुख परिभाषाएँ प्रदान करती हैं। वे कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के विभिन्न पहलुओं, डेटा प्रबंधन, और संबंधित कानूनी और नैतिक मुद्दों को संबोधित करती हैं।

अध्याय 1


धारा 3 - कृत्रिम बुद्धिमत्ता का वर्गीकरण


(1)   सभी कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को निम्नलिखित वर्गीकरण के साधनों के आधार पर वर्गीकृत किया गया है:


(a)   वैचारिक वर्गीकरण के तरीके: ये तरीके धारा 4 में वर्णित हैं और कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को उनके उपयोग, विकास, रखरखाव और प्रसार के वैचारिक मूल्यांकन के माध्यम से उनके अंतर्निहित उद्देश्य की पहचान और जांच के लिए वर्गीकृत करते हैं। इन विधियों में शामिल हैं:


(1)   समस्या-से-समस्या वैचारिक वर्गीकरण (Issue-to-Issue Concept Classification - IICC)

(2)   नैतिकता-आधारित वैचारिक वर्गीकरण (Ethics-Based Concept Classification - EBCC)

(3)   घटनाएँ-आधारित वैचारिक वर्गीकरण (Phenomena-Based Concept Classification - PBCC)

(4)   मानवकृत-आधारित वैचारिक वर्गीकरण (Anthropomorphism-Based Concept Classification - ABCC)


(b)   तकनीकी वर्गीकरण के तरीके: ये तरीके धारा 5 में वर्णित हैं और कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को उनके पैमाने, अंतर्निहित उद्देश्य, तकनीकी विशेषताओं और तकनीकी सीमाओं के अनुसार वर्गीकृत करते हैं। इन विधियों में शामिल हैं:


(1)   कई स्थिर उपयोग मामलों के साथ सामान्य उद्देश्य कृत्रिम बुद्धिमत्ता अनुप्रयोग (General Purpose Artificial Intelligence Applications with Multiple Stable Use Cases - GPAIS)

(2)   कई अल्पकालिक या अनिश्चित उपयोग मामलों के साथ सामान्य उद्देश्य कृत्रिम बुद्धिमत्ता अनुप्रयोग (General Purpose Artificial Intelligence Applications with Multiple Short-Run or Unclear Use Cases - GPAIU)

(3)   एक या अधिक संबंधित स्वतंत्र उपयोग मामलों या परीक्षण मामलों के साथ विशिष्ट उद्देश्य कृत्रिम बुद्धिमत्ता अनुप्रयोग (Specific-Purpose Artificial Intelligence Applications with One or More Associated Standalone Use Cases or Test Cases - SPAI)


(c)   वाणिज्यिक वर्गीकरण के तरीके: ये तरीके धारा 6 में वर्णित हैं और वाणिज्यिक और औद्योगिक रूप से उत्पादित और प्रसारित कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को उनके अंतर्निहित उद्देश्य के अनुसार वर्गीकृत करते हैं। इन विधियों में शामिल हैं:


(1)   उत्पाद के रूप में कृत्रिम बुद्धिमत्ता (Artificial Intelligence as a Product - AI-Pro)

(2)   सेवा के रूप में कृत्रिम बुद्धिमत्ता (Artificial Intelligence as a Service - AIaaS)

(3)   घटक के रूप में कृत्रिम बुद्धिमत्ता (Artificial Intelligence as a Component - AI-Com)

(4)   प्रणाली के रूप में कृत्रिम बुद्धिमत्ता (Artificial Intelligence as a System - AI-S)

(5)   सेवा के रूप में कृत्रिम बुद्धिमत्ता-सक्षम अवसंरचना (Artificial Intelligence-enabled Infrastructure as a Service - AI-IaaS)

(6)   पूर्वावलोकन के लिए कृत्रिम बुद्धिमत्ता (Artificial Intelligence for Preview - AI-Pre)


(d)   जोखिम-केंद्रित वर्गीकरण के तरीके: ये तरीके धारा 7 में वर्णित हैं और कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को उनके परिणाम और प्रभाव-आधारित जोखिमों के आधार पर वर्गीकृत करते हैं। इन विधियों में शामिल हैं:


(1)   संकीर्ण जोखिम एआई प्रणाली (Narrow Risk AI Systems)

(2)   मध्यम जोखिम एआई प्रणाली (Medium Risk AI Systems)

(3)   उच्च जोखिम एआई प्रणाली (High Risk AI Systems)

(4)   अनपेक्षित जोखिम एआई प्रणाली (Unintended Risk AI Systems)

 

धारा 4 – वैचारिक वर्गीकरण के तरीके

(1)   ये तरीके, जो धारा 3 की उप-धारा (1) के खंड (a) में निर्दिष्ट हैं, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों का वर्गीकरण उनके उपयोग, विकास, रखरखाव, और प्रसार के वैचारिक मूल्यांकन के माध्यम से उनके अंतर्निहित उद्देश्य की पहचान और परीक्षा के लिए करते हैं। इस वर्गीकरण को निम्नलिखित में विभाजित किया गया है:


(i)   समस्या-से-समस्या वैचारिक वर्गीकरण (Issue-to-Issue Concept Classification - IICC) जैसा कि उप-धारा (2) में वर्णित है

(ii)  नैतिकता-आधारित वैचारिक वर्गीकरण (Ethics-Based Concept Classification - EBCC) जैसा कि उप-धारा (3) में वर्णित है

(iii) घटनाएँ-आधारित वैचारिक वर्गीकरण (Phenomena-Based Concept Classification - PBCC) जैसा कि उप-धारा (4) में वर्णित है

(iv) मानवकृत-आधारित वैचारिक वर्गीकरण (Anthropomorphism-Based Concept Classification - ABCC) जैसा कि उप-धारा (5) में वर्णित है


(2)   समस्या-से-समस्या वैचारिक वर्गीकरण (IICC) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के अंतर्निहित उद्देश्य को मामले-दर-मामला आधार पर निर्धारित करने की विधि है, जो इन मूल्यांकन कारकों के आधार पर उनकी पहचान और परीक्षा करती है:


(i)   उपयोग: विभिन्न क्षेत्रों में AI प्रौद्योगिकी के विशेष उपयोग मामलों और अनुप्रयोगों का मूल्यांकन।

(ii)  विकास: AI प्रौद्योगिकी के डिज़ाइन, प्रशिक्षण, और तैनाती प्रक्रियाओं का मूल्यांकन।

(iii) रखरखाव: AI प्रौद्योगिकी के ongoing समर्थन, अपडेट, और संशोधनों की जांच।

(iv) प्रसार: विभिन्न क्षेत्रों और उपयोगकर्ता समूहों में AI प्रौद्योगिकी के प्रसार और अपनाने का विश्लेषण।


उदाहरण


(1) एक चिकित्सा निदान के लिए डिज़ाइन की गई AI प्रणाली को उसके उद्देश्य के आधार पर वर्गीकृत किया जाता है ताकि रोगी के परिणामों में सुधार हो सके। उदाहरण के लिए, यदि एक AI सॉफ़्टवेयर डॉक्टरों को रोगों का अधिक सटीक निदान करने में मदद करता है, तो इसे चिकित्सा AI अनुप्रयोगों के अंतर्गत वर्गीकृत किया जाएगा।


(2) एक वित्तीय व्यापार के लिए AI प्रणाली को उसके उद्देश्य के आधार पर वर्गीकृत किया जाता है ताकि निवेश रणनीतियों को अनुकूलित किया जा सके। उदाहरण के लिए, यदि एक AI-ड्राइवेन एल्गोरिदम बाजार डेटा का विश्लेषण करता है और स्टॉक ट्रेड्स की सिफारिश करता है, तो इसे वित्तीय AI अनुप्रयोगों के अंतर्गत वर्गीकृत किया जाएगा।


(3)   नैतिकता-आधारित वैचारिक वर्गीकरण (EBCC) AI प्रौद्योगिकियों की नैतिकता-आधारित संबंध को क्षेत्र-विशिष्ट और क्षेत्र-न्यूट्रल संदर्भों में पहचानने की विधि है, जो इन कारकों के आधार पर उनके अंतर्निहित उद्देश्य की पहचान और परीक्षा करती है:


(i)   उपयोग: विशिष्ट क्षेत्रों और विभिन्न डोमेन में AI प्रौद्योगिकी के उपयोग के नैतिक प्रभावों का मूल्यांकन।

(ii)  विकास: AI प्रौद्योगिकियों के डिज़ाइन, प्रशिक्षण, और तैनाती में नैतिक विचारों का मूल्यांकन।

(iii) रखरखाव: AI प्रौद्योगिकियों के समर्थन, अपडेट, और संशोधनों में ongoing नैतिक जिम्मेदारियों की जांच।

(iv) प्रसार: विभिन्न क्षेत्रों और उपयोगकर्ता समूहों में AI प्रौद्योगिकी के प्रसार और अपनाने के नैतिक प्रभाव का विश्लेषण।


उदाहरण


एक सामाजिक मीडिया सामग्री मोडरेशन के लिए AI की नैतिकता को निष्पक्षता और पूर्वाग्रह की रोकथाम के आधार पर मूल्यांकन किया जाता है। उदाहरण के लिए, यदि AI सोशल मीडिया प्लेटफ़ॉर्म पर नफरत भरे भाषण और गलत जानकारी को फ़िल्टर करता है, तो इसे सामग्री मोडरेशन AI के अंतर्गत वर्गीकृत किया जाएगा, जिसमें सभी उपयोगकर्ताओं की सामग्री के प्रति निष्पक्ष और न्यायसंगत व्यवहार सुनिश्चित करने पर जोर दिया गया है।


(4)   घटनाएँ-आधारित वैचारिक वर्गीकरण (PBCC) AI प्रौद्योगिकियों के उपयोग और प्रसार से संबंधित अधिकार-आधारित मुद्दों को संबोधित करने की विधि है, जो इन कारकों के आधार पर उनके अंतर्निहित उद्देश्य की पहचान और परीक्षा करती है:


(i)   उपयोग: विभिन्न क्षेत्रों में व्यक्तिगत और सामूहिक अधिकारों पर AI प्रौद्योगिकी के उपयोग के प्रभाव का मूल्यांकन।

(ii)  विकास: AI प्रौद्योगिकियों के डिज़ाइन, प्रशिक्षण, और तैनाती में अधिकार-आधारित विचारों का समावेश।

(iii) रखरखाव: AI प्रौद्योगिकियों के समर्थन, अपडेट, और संशोधनों में अधिकारों की सुरक्षा और रक्षा के ongoing प्रयासों की जांच।

(iv) प्रसार: विभिन्न क्षेत्रों और उपयोगकर्ता समूहों में AI प्रौद्योगिकी के प्रसार और अपनाने के अधिकार-आधारित निहितार्थों का विश्लेषण।


उदाहरण


(1) एक AI प्रणाली जो व्यक्तिगत डेटा का विश्लेषण करके लक्षित विज्ञापन करती है, डेटा सुरक्षा अधिकारों की अनुपालना के आधार पर वर्गीकृत की जाती है। उदाहरण के लिए, यदि AI उपयोगकर्ता के व्यवहार के आधार पर विज्ञापन को व्यक्तिगत बनाता है, तो इसे विज्ञापन AI के अंतर्गत वर्गीकृत किया जाएगा, जिसमें डेटा गोपनीयता पर विचार किया जाएगा।


(2) एक AI जो आत्मनिर्भर वाहनों में उपयोग की जाती है, सड़क सुरक्षा और उपयोगकर्ता अधिकारों के प्रभाव के आधार पर वर्गीकृत की जाती है। उदाहरण के लिए, यदि AI स्व-ड्राइविंग कारों को नियंत्रित करता है, तो इसे ऑटोमोटिव AI के अंतर्गत वर्गीकृत किया जाएगा, जिसमें सुरक्षा और उपयोगकर्ता अधिकारों पर ध्यान केंद्रित किया जाएगा।


(5)   मानवकृत-आधारित वैचारिक वर्गीकरण (ABCC) उन परिदृश्यों का मूल्यांकन करने की विधि है जहाँ AI प्रणालियाँ सामान्यतः मानव गुणों का अनुकरण, अनुकरण, पुनरुत्पादन, या अनुकृति करती हैं, जिसमें शामिल हैं:


(i)   स्वायत्तता: स्वतंत्र रूप से संचालन और निर्णय लेने की क्षमता, जिसमें निम्नलिखित परिदृश्य शामिल हैं:


·       अनुकरण: AI प्रणालियाँ स्वायत्त निर्णय लेने की प्रक्रियाओं को गणनात्मक तरीकों का उपयोग करके मॉडल करती हैं;

·       अनुकरण: AI प्रणालियाँ मानव-प्रकार के स्वायत्त व्यवहारों को सीखती और दोहराती हैं;

·       पुनरुत्पादन: AI प्रणालियाँ विशिष्ट मानव-प्रकार के स्वायत्त कार्यों को सटीक रूप से पुनरुत्पादित करती हैं;

·       अनुकृति: AI प्रणालियाँ मानव-प्रकार की स्वायत्तता को पुनरुत्पादित करती हैं और संभावित रूप से इसे बढ़ाती हैं;


उदाहरण


एक AI-चालित ड्रोन डिलीवरी प्रणाली जो शहरी वातावरण में नेविगेट करती है, बाधाओं से बचती है और वास्तविक समय की ट्रैफ़िक स्थितियों के आधार पर अपने मार्ग को अनुकूलित करती है ताकि पैकेज को बिना मानव हस्तक्षेप के कुशलता से वितरित किया जा सके।


(ii)  perception: पर्यावरण से संवेदनशील जानकारी को समझने और व्याख्या करने की क्षमता, जिसमें निम्नलिखित परिदृश्य शामिल हैं:


·       अनुकरण: AI प्रणालियाँ मानव-प्रकार की perception को गणनात्मक तरीकों का उपयोग करके मॉडल करती हैं;

·       अनुकरण: AI प्रणालियाँ विशिष्ट मानव-प्रकार की perceptual प्रक्रियाओं को सीखती और पुनरुत्पादित करती हैं;

·       पुनरुत्पादन: AI प्रणालियाँ मानव-प्रकार की perceptual क्षमताओं को सटीक रूप से पुनरुत्पादित करती हैं;


उदाहरण


एक होटल में सेवा देने वाला रोबोट कंप्यूटर दृष्टि और प्राकृतिक भाषा प्रसंस्करण का उपयोग करके मेहमानों को नाम से पहचानता है, उनके चेहरे के भाव और आवाज के स्वर को समझता है और मौखिक अनुरोधों का उपयुक्त तरीके से उत्तर देता है।


(iii) reasoning: सूचना को प्रोसेस करने, निष्कर्ष निकालने, और समस्याओं को हल करने की क्षमता, जिसमें निम्नलिखित परिदृश्य शामिल हैं:


·       अनुकरण: AI प्रणालियाँ मानव-प्रकार की reasoning को गणनात्मक तरीकों का उपयोग करके मॉडल करती हैं;

·       अनुकरण: AI प्रणालियाँ विशिष्ट मानव reasoning पैटर्न को सीखती और पुनरुत्पादित करती हैं;

·       पुनरुत्पादन: AI प्रणालियाँ मानव-प्रकार की reasoning क्षमताओं को सटीक रूप से पुनरुत्पादित करती हैं;

·       अनुकृति: AI प्रणालियाँ मानव-प्रकार की reasoning क्षमताओं को पार करती हैं;


उदाहरण


एक चिकित्सा निदान AI प्रणाली रोगी के लक्षणों, चिकित्सा इतिहास, परीक्षण परिणामों और इमेजिंग स्कैन का विश्लेषण करती है। यह जानकारी का उपयोग करके संभावित निदानों की सूची तैयार करती है, संभावनाओं को बाहर करने के लिए अतिरिक्त परीक्षण सुझाती है, और एक इष्टतम उपचार योजना की सिफारिश करती है।


(iv) इंटरैक्शन: मानवों या अन्य AI प्रणालियों के साथ संवाद और संलग्न होने की क्षमता, जिसमें निम्नलिखित परिदृश्य शामिल हैं:


·       अनुकरण: AI प्रणालियाँ मानव-प्रकार की इंटरैक्शन को गणनात्मक तरीकों का उपयोग करके मॉडल करती हैं;

·       अनुकरण: AI प्रणालियाँ विशिष्ट मानव इंटरैक्शन पैटर्न को सीखती और पुनरुत्पादित करती हैं;

·       पुनरुत्पादन: AI प्रणालियाँ मानव-प्रकार की इंटरैक्शन क्षमताओं को सटीक रूप से पुनरुत्पादित करती हैं;

·       अनुकृति: AI प्रणालियाँ मानव-प्रकार की इंटरैक्शन को बढ़ाती हैं;


उदाहरण


एक AI-चालित वर्चुअल असिस्टेंट उपयोगकर्ताओं के साथ प्राकृतिक बातचीत करता है, संदर्भ और सूक्ष्मता को समझता है। यह आवश्यकता होने पर स्पष्टता के सवाल पूछता है, प्रासंगिक जानकारी प्रदान करता है या कार्यों को निष्पादित करता है, और यहां तक कि सुझाव या प्रॉम्प्ट के साथ भी हस्तक्षेप करता है।


(v)   अनुकूलन: अनुभवों से सीखने और तदनुसार व्यवहार को समायोजित करने की क्षमता, जिसमें निम्नलिखित परिदृश्य शामिल हैं:

·       अनुकरण: AI प्रणालियाँ मानव-प्रकार के अनुकूलन को गणनात्मक तरीकों का उपयोग करके मॉडल करती हैं;

·       अनुकरण: AI प्रणालियाँ मानव अनुकूलन व्यवहार को सीखती और पुनरुत्पादित करती हैं;

·       पुनरुत्पादन: AI प्रणालियाँ मानव-प्रकार के अनुकूलन क्षमताओं को पुनरुत्पादित करती हैं;

·       अनुकृति: AI प्रणालियाँ मानव-प्रकार के अनुकूलन को पार करती हैं, एक आकांक्षात्मक लक्ष्य के रूप में;


उदाहरण


एक AI प्रणाली जो स्टॉक ट्रेडिंग के लिए है, निरंतर रूप से बाजार के रुझानों, वैश्विक घटनाओं, और अपने स्वयं के ट्रेड्स के प्रदर्शन का विश्लेषण करती है। यह पैटर्न और सहसंबंधों की पहचान करती है, और विभिन्न परिदृश्यों में किस रणनीति का सबसे अच्छा काम करता है, इसे सीखती है। AI अपने ट्रेडिंग एल्गोरिदम को अनुकूलित करता है और एकत्रित अनुभव के आधार पर अपनी दृष्टिकोण को समायोजित करता है।


(vi)  सृजनात्मकता: नए विचारों, समाधानों, या आउटपुट को उत्पन्न करने की क्षमता, जिसमें निम्नलिखित परिदृश्य शामिल हैं:

·       अनुकरण: AI प्रणालियाँ मानव-प्रकार की सृजनात्मकता को गणनात्मक तरीकों का उपयोग करके मॉडल करती हैं;

·       अनुकरण: AI प्रणालियाँ मानव सृजनात्मक प्रक्रियाओं को सीखती और पुनरुत्पादित करती हैं;

·       पुनरुत्पादन: AI प्रणालियाँ मानव-प्रकार की सृजनात्मक क्षमताओं को सटीक रूप से पुनरुत्पादित करती हैं;

·       अनुकृति: AI प्रणालियाँ मानव-प्रकार की सृजनात्मकता को बढ़ाती हैं, एक भविष्य-दृष्टि के रूप में;


उदाहरण


एक AI संगीत निर्माण उपकरण एक मौलिक सिम्फनी बनाता है। एक थीम और भावनात्मक स्वर दिए गए हैं, यह अनूठी धुनें, हार्मोनियां और वाद्य यंत्र उत्पन्न करता है। यह एस्थेटिक मूल्यांकन मॉडलों के आधार पर रचना को पुनरावृत्त करता है और परिष्कृत करता है, अंततः एक ऐसा टुकड़ा तैयार करता है जो अपने प्रशिक्षण डेटा में मौजूदा संगीत से अलग है।


धारा 5 – तकनीकी वर्गीकरण की विधियाँ


(1) इन विधियों के अनुसार, जो धारा 3 की उप-धारा (1) के उपखंड (b) में निर्दिष्ट की गई हैं, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों का वर्गीकरण उनके पैमाने, अंतर्निहित उद्देश्य, तकनीकी विशेषताओं और तकनीकी सीमाओं के आधार पर किया जाता है, जैसे कि –


(i) सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता अनुप्रयोग जिनके कई स्थिर उपयोग मामले हैं (GPAIS), जैसा कि उप-धारा (2) में वर्णित है;


(ii) सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता अनुप्रयोग जिनके कई तात्कालिक या अस्पष्ट उपयोग मामले हैं (GPAIU), जैसा कि उप-धारा (3) में वर्णित है;


(iii) विशिष्ट प्रयोजन कृत्रिम बुद्धिमत्ता अनुप्रयोग जिनके एक या अधिक संबंधित स्वतंत्र उपयोग मामले या परीक्षण मामले हैं (SPAI), जैसा कि उप-धारा (4) में वर्णित है;


(2) सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता प्रणाली जिनके कई स्थिर उपयोग मामले हैं (GPAIS) को एक तकनीकी विधि के आधार पर वर्गीकृत किया जाता है जो निम्नलिखित कारकों का मूल्यांकन करती है, संबंधित क्षेत्र-विशिष्ट और क्षेत्र-तटस्थ औद्योगिक मानकों के अनुसार:


(i) पैमाना: विभिन्न क्षेत्रों में प्रभावी और लगातार संचालन की क्षमता, बड़े डेटा और उपयोगकर्ताओं की मात्रा को संभालने की क्षमता।


(ii) अंतर्निहित उद्देश्य: एक से अधिक अच्छी तरह से परिभाषित उपयोग मामलों में लागू होने की क्षमता।


(iii) तकनीकी विशेषताएँ: मजबूत और लचीली संरचनाएँ जो विविध कार्यों और आवश्यकताओं पर विश्वसनीय प्रदर्शन की सुविधा देती हैं।


(iv) तकनीकी सीमाएँ: नियत उपयोग मामलों की पूरी सीमा के भीतर लगातार प्रदर्शन बनाए रखने और क्षेत्र-विशिष्ट नियमों के पालन में संभावित चुनौतियाँ।


उदाहरण


स्वास्थ्य देखभाल में एक AI प्रणाली जो निदान, उपचार सिफारिशें, और रोगी प्रबंधन के लिए उपयोग की जाती है। यह AI विभिन्न स्वास्थ्य देखभाल सेटिंग्स में अच्छी तरह से कार्य करती है, चिकित्सा मानकों का पालन करती है और विश्वसनीय परिणाम प्रदान करती है। यह विभिन्न चिकित्सा डेटा को संभालने और कई संस्थानों की सेवा करने में अपने बड़े पैमाने, स्वास्थ्य पेशेवरों की निर्णय-निर्माण और देखभाल सुधार में सहायता करने के अंतर्निहित उद्देश्य, मजबूत तकनीकी संरचना और गोपनीयता और सुरक्षा मानकों का पालन करते हुए सटीकता, और किनारे के मामलों या दुर्लभ स्थितियों में संभावित सीमाओं द्वारा विशेषता प्राप्त है।


(3) सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता प्रणाली जिनके कई तात्कालिक या अस्पष्ट उपयोग मामले हैं (GPAIU) को एक तकनीकी विधि के आधार पर वर्गीकृत किया जाता है जो निम्नलिखित कारकों का मूल्यांकन करती है, संबंधित क्षेत्र-विशिष्ट और क्षेत्र-तटस्थ औद्योगिक मानकों के अनुसार:


(i) पैमाना: विशिष्ट तात्कालिक आवश्यकताओं या खोजपूर्ण अनुप्रयोगों को संबोधित करने की क्षमता, मध्य पैमाने पर संबंधित क्षेत्रों में।


(ii) अंतर्निहित उद्देश्य: उभरते या अस्थायी उपयोग मामलों के लिए लक्षित समाधान प्रदान करना, भविष्य में अनुकूलन और विस्तार की संभावनाओं के साथ।


(iii) तकनीकी विशेषताएँ: तेजी से विकास और तैनाती को सक्षम करने वाली मॉड्यूलर और अनुकूलनीय संरचनाएँ, जो विकसित हो रही आवश्यकताओं के जवाब में हैं।


(iv) तकनीकी सीमाएँ: दीर्घकालिक व्यवहार्यता, स्केलेबिलिटी और बदलती उद्योग मानकों और नियमों के अनुपालन के संदर्भ में अनिश्चितताएँ।


उदाहरण


एक स्मार्ट सिटी परियोजना में AI प्रणाली जो ट्रैफिक प्रबंधन, प्रदूषण निगरानी और सार्वजनिक सुरक्षा के लिए उपयोग की जाती है। इसे विशिष्ट स्थानों पर सीमित समय के लिए मध्य पैमाने पर तैनात किया जाता है, इसका अंतर्निहित उद्देश्य स्मार्ट सिटी अनुप्रयोगों में AI की व्यवहार्यता और प्रभावशीलता का परीक्षण और मान्यता है। यह बदलती आवश्यकताओं और अवसंरचना एकीकरण को समायोजित करने के लिए एक मॉड्यूलर, अनुकूलनीय तकनीकी संरचना की विशेषता देती है, लेकिन संभावित स्केलेबिलिटी, इंटरऑपरेबिलिटी और दीर्घकालिक प्रदर्शन में सीमाएँ होती हैं क्योंकि यह प्रयोगात्मक प्रकृति की है।


(4) विशिष्ट प्रयोजन कृत्रिम बुद्धिमत्ता प्रणाली जिनके एक या अधिक संबंधित स्वतंत्र उपयोग मामले या परीक्षण मामले हैं (SPAI) को एक तकनीकी विधि के आधार पर वर्गीकृत किया जाता है जो निम्नलिखित कारकों का मूल्यांकन करती है:


(i) पैमाना: विशिष्ट, अच्छी तरह से परिभाषित समस्याओं को संबोधित करने की क्षमता या प्रमाणित अवधारणाओं के कार्यान्वयन के रूप में छोटे पैमाने पर सेवा करना।


(ii) अंतर्निहित उद्देश्य: व्यक्तिगत उपयोग मामलों के लिए विशेष समाधान प्रदान करना या नियंत्रित वातावरण में AI तकनीक की व्यवहार्यता की पुष्टि करना।


(iii) तकनीकी विशेषताएँ: स्वतंत्र उपयोग मामले या परीक्षण मामले की विशिष्ट आवश्यकताओं के लिए केंद्रित और अनुकूलित संरचनाएँ।


(iv) तकनीकी सीमाएँ: सामान्यीकरण पर बाधाएँ, प्रारंभिक उपयोग मामले से परे स्केलेबिलिटी में कठिनाइयाँ, और वास्तविक दुनिया की मजबूती और विश्वसनीयता सुनिश्चित करने में चुनौतियाँ।


उदाहरण


एक AI चैटबॉट जिसे एक कंपनी द्वारा उत्पाद लॉन्च के दौरान ग्राहक सेवा के लिए उपयोग किया जाता है। एक छोटे पैमाने की स्वतंत्र एप्लिकेशन के रूप में, इसका अंतर्निहित उद्देश्य एक विशिष्ट उत्पाद या सेवा के लिए स्वचालित समर्थन प्रदान करना है। यह उत्पाद-संबंधित प्रश्नों और इंटरैक्शन को संभालने के लिए केंद्रित, अनुकूलित तकनीकी संरचना का उपयोग करता है, लेकिन पूर्व-निर्धारित सीमा से बाहर प्रश्नों को संभालने या नए उत्पादों के लिए बिना महत्वपूर्ण परिवर्तनों के अनुकूलन में सीमाएँ होती हैं।


धारा 6 – व्यावसायिक वर्गीकरण के तरीके


(1) ये तरीके, जो धारा 3 की उप-धारा (1) की उपबंध (c) में निर्दिष्ट किए गए हैं, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों का वर्गीकरण उनके अंतर्निहित उद्देश्य और प्राथमिक उपयोग के आधार पर करते हैं, निम्नलिखित कारकों को ध्यान में रखते हुए:


(i) कृत्रिम बुद्धिमत्ता प्रौद्योगिकी की मुख्य कार्यक्षमता और तकनीकी क्षमताएँ;

(ii) कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के मुख्य अंतिम उपयोगकर्ता या व्यवसायिक अंतिम उपयोगकर्ता, और उपयोगकर्ता आधार या बाजार हिस्सेदारी का आकार;

(iii) वे मुख्य बाजार, क्षेत्र या डोमेन जिनमें कृत्रिम बुद्धिमत्ता प्रौद्योगिकी लागू की जानी है, और उन क्षेत्रों में बाजार प्रभाव या प्रभुत्व;

(iv) कृत्रिम बुद्धिमत्ता प्रौद्योगिकी द्वारा प्रदान किए जाने वाले प्रमुख लाभ, परिणाम या परिणाम, और व्यक्तियों, व्यवसायों या समाज पर संभावित प्रभाव;

(v) कृत्रिम बुद्धिमत्ता प्रौद्योगिकी या इसे विकसित और लागू करने वाली कंपनी द्वारा उत्पन्न वार्षिक कारोबार या राजस्व;

(vi) कृत्रिम बुद्धिमत्ता प्रौद्योगिकी द्वारा एकत्रित, संसाधित या उपयोग किए गए डेटा की मात्रा, और विभिन्न सेवाओं या प्लेटफार्मों में डेटा एकीकरण का स्तर; और

(vii) कोई अन्य मात्रात्मक या गुणात्मक कारक जिसे केंद्रीय सरकार या भारतीय कृत्रिम बुद्धिमत्ता परिषद (IAIC) द्वारा कृत्रिम बुद्धिमत्ता प्रौद्योगिकी की महत्वपूर्णता और प्रभाव का मूल्यांकन करने के लिए निर्धारित किया जा सकता है।


(2) उप-धारा (1) में उल्लिखित कारकों के मूल्यांकन के आधार पर, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को निम्नलिखित श्रेणियों में वर्गीकृत किया जाएगा:


(i) कृत्रिम बुद्धिमत्ता उत्पाद (AI-Pro), जैसा कि उप-धारा (3) में वर्णित है;

(ii) कृत्रिम बुद्धिमत्ता सेवा (AIaaS), जैसा कि उप-धारा (4) में वर्णित है;

(iii) कृत्रिम बुद्धिमत्ता घटक (AI-Com), जिसमें ऐसे कृत्रिम बुद्धिमत्ता प्रौद्योगिकियाँ शामिल हैं जो मौजूदा उत्पादों, सेवाओं और प्रणाली अवसंरचनाओं में सीधे एकीकृत की गई हैं, जैसा कि उप-धारा (5) में वर्णित है;

(iv) कृत्रिम बुद्धिमत्ता प्रणाली (AI-S), जिसमें AIaaS में प्रदान किए गए परतों या इंटरफेस शामिल हैं जो मौजूदा प्रणालियों में कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की क्षमताओं को पूरी तरह से या आंशिक रूप से एकीकृत करने की सुविधा प्रदान करते हैं, जैसा कि उप-धारा (6) में वर्णित है;

(v) कृत्रिम बुद्धिमत्ता सक्षम अवसंरचना सेवा (AI-IaaS), जिसमें मौजूदा डिजिटल अवसंरचना के घटकों और परतों में सीधे एकीकृत की गई कृत्रिम बुद्धिमत्ता प्रौद्योगिकियाँ शामिल हैं, जैसा कि उप-धारा (7) में वर्णित है;

(vi) कृत्रिम बुद्धिमत्ता पूर्वावलोकन (AI-Pre), जैसा कि उप-धारा (8) में वर्णित है;


(3) कृत्रिम बुद्धिमत्ता उत्पाद (AI-Pro) उन स्वतंत्र AI अनुप्रयोगों या सॉफ़्टवेयर को संदर्भित करता है जो व्यक्तिगत उत्पाद के रूप में विकसित और बेचे जाते हैं। ये उत्पाद विशिष्ट कार्यों को करने या उपयोगकर्ता को विशेष सेवाएं प्रदान करने के लिए डिज़ाइन किए गए होते हैं;


उदाहरण


(1) एक AI-संचालित होम असिस्टेंट डिवाइस जिसे उपभोक्ता इलेक्ट्रॉनिक्स डिवाइस के रूप में विपणन और बेचा जाता है जो वॉयस रिकग्निशन, स्मार्ट होम नियंत्रण और व्यक्तिगत सहायता जैसी कार्यक्षमताएँ प्रदान करता है।

(2) एक वाणिज्यिक सॉफ़्टवेयर पैकेज जो भविष्यवाणी विश्लेषण के लिए उपयोग किया जाता है ताकि व्यवसाय बाजार प्रवृत्तियों और उपभोक्ता व्यवहार की भविष्यवाणी कर सकें।


(4) कृत्रिम बुद्धिमत्ता सेवा (AIaaS) उन क्लाउड-आधारित AI समाधानों को संदर्भित करता है जो उपयोगकर्ताओं को इंटरनेट के माध्यम से ऑन-डिमांड प्रदान किए जाते हैं। उपयोगकर्ता AI प्रणालियों की क्षमताओं का उपयोग कर सकते हैं बिना अंतर्निहित अवसंरचना को विकसित या बनाए रखने की आवश्यकता के;


उदाहरण


(1) एक क्लाउड-आधारित मशीन लर्निंग प्लेटफ़ॉर्म जो व्यवसायों और डेवलपर्स को शक्तिशाली AI टूल और ढांचे की सदस्यता के आधार पर पहुंच प्रदान करता है।

(2) एक AI-चालित ग्राहक सेवा चैटबॉट सेवा जिसे व्यवसाय अपनी वेबसाइटों में एकीकृत कर सकते हैं ताकि ग्राहक पूछताछ और समर्थन को संभाला जा सके।


(5) कृत्रिम बुद्धिमत्ता घटक (AI-Com) उन AI प्रौद्योगिकियों को संदर्भित करता है जो मौजूदा उत्पादों, सेवाओं, या प्रणाली अवसंरचनाओं में एकीकृत या एम्बेडेड होती हैं ताकि उनकी क्षमताओं या प्रदर्शन में सुधार हो सके। इस मामले में, AI घटक एक स्वतंत्र उत्पाद नहीं है बल्कि एक बड़े प्रणाली का अनुभाग है;



उदाहरण


(1) एक AI-आधारित सिफारिश इंजन जो एक ई-कॉमर्स प्लेटफार्म में एकीकृत होता है ताकि उपयोगकर्ताओं को व्यक्तिगत खरीदारी सुझाव प्रदान किए जा सकें।

(2) स्मार्टफोन्स में AI-संवर्धित कैमरे जो मशीन लर्निंग एल्गोरिदम का उपयोग करते हैं ताकि फोटो की गुणवत्ता में सुधार किया जा सके और चेहरे की पहचान जैसी सुविधाएँ प्रदान की जा सकें।


(6) कृत्रिम बुद्धिमत्ता प्रणाली (AI-S) उन पूर्ण अंत-से-अंत AI समाधानों को संदर्भित करता है जो कई AI घटकों, मॉडलों, और इंटरफेस को जोड़ते हैं। ये सिस्टम अक्सर मौजूदा वर्कफ़्लो में AI क्षमताओं का एकीकरण या पूरी तरह से नए AI-चालित प्रक्रियाओं का निर्माण करते हैं पूरी तरह से या आंशिक रूप से;


उदाहरण


(1) एक AI मिडलवेयर प्लेटफ़ॉर्म जो विभिन्न उद्यम अनुप्रयोगों को जोड़ता है ताकि उनके कार्यात्मकताओं को AI क्षमताओं के साथ बढ़ाया जा सके, जैसे कि एक AI परत जो CRM सिस्टम के साथ एकीकृत होती है ताकि पूर्वानुमानित बिक्री विश्लेषण प्रदान किया जा सके।

(2) एक AI सिस्टम जो स्मार्ट मैन्युफैक्चरिंग में उपयोग होता है, जहां AI इंटरफेस औद्योगिक मशीनरी के साथ एकीकृत होते हैं ताकि उत्पादन प्रक्रियाओं और रखरखाव कार्यक्रमों को अनुकूलित किया जा सके।


(6) कृत्रिम बुद्धिमत्ता प्रणाली (AI-S) उन पूर्ण अंत-से-अंत AI समाधानों को संदर्भित करता है जो कई AI घटकों, मॉडलों, और इंटरफेस को जोड़ते हैं। ये सिस्टम अक्सर मौजूदा वर्कफ़्लो में AI क्षमताओं का एकीकरण या पूरी तरह से नए AI-चालित प्रक्रियाओं का निर्माण करते हैं पूरी तरह से या आंशिक रूप से;


उदाहरण


(1) एक AI मिडलवेयर प्लेटफ़ॉर्म जो विभिन्न उद्यम अनुप्रयोगों को जोड़ता है ताकि उनके कार्यात्मकताओं को AI क्षमताओं के साथ बढ़ाया जा सके, जैसे कि एक AI परत जो CRM सिस्टम के साथ एकीकृत होती है ताकि पूर्वानुमानित बिक्री विश्लेषण प्रदान किया जा सके।

(2) एक AI सिस्टम जो स्मार्ट मैन्युफैक्चरिंग में उपयोग होता है, जहां AI इंटरफेस औद्योगिक मशीनरी के साथ एकीकृत होते हैं ताकि उत्पादन प्रक्रियाओं और रखरखाव कार्यक्रमों को अनुकूलित किया जा सके।


(7) कृत्रिम बुद्धिमत्ता-सक्षम अवसंरचना सेवा (AI-IaaS) उन AI प्रौद्योगिकियों को संदर्भित करता है जो अंतर्निहित कंप्यूटिंग, स्टोरेज, और नेटवर्क अवसंरचना में एकीकृत होती हैं ताकि संसाधनों का आवंटन अनुकूलित किया जा सके, दक्षता में सुधार किया जा सके, और बुद्धिमान स्वचालन सक्षम किया जा सके। यह श्रेणी अवसंरचना स्तर पर AI के उपयोग पर ध्यान केंद्रित करती है न कि अनुप्रयोग या सेवा स्तर पर।


उदाहरण


(1) एक AI-सक्षम ट्रैफिक प्रबंधन प्रणाली जो शहर की अवसंरचना के साथ एकीकृत होती है ताकि ट्रैफिक प्रवाह की निगरानी और प्रबंधन किया जा सके, जाम को कम किया जा सके, और सार्वजनिक परिवहन कार्यक्रमों को अनुकूलित किया जा सके।

(2) AI-चालित उपयोगिता प्रबंधन प्रणालियाँ जो ऊर्जा ग्रिड में एकीकृत होती हैं ताकि ऊर्जा खपत की भविष्यवाणी और प्रबंधन किया जा सके, दक्षता को बढ़ाया जा सके और लागत को कम किया जा सके।


(8) कृत्रिम बुद्धिमत्ता पूर्वावलोकन (AI-Pre) उन AI प्रौद्योगिकियों को संदर्भित करता है जो कंपनियों द्वारा परीक्षण, प्रयोग, या व्यापक व्यावसायिक रिलीज से पहले प्रारंभिक पहुँच के लिए उपलब्ध कराई जाती हैं। AI-Pre में विभिन्न विकास चरणों में AI उत्पाद, सेवाएँ, घटक, सिस्टम, प्लेटफ़ॉर्म और अवसंरचना शामिल हैं। AI-Pre प्रौद्योगिकियाँ आमतौर पर निम्नलिखित विशेषताओं से युक्त होती हैं जो शामिल हो सकती हैं लेकिन सीमित नहीं हैं:


(i) AI प्रौद्योगिकी एक पूर्वावलोकन कार्यक्रम में सीमित संख्या में अंतिम उपयोगकर्ताओं या प्रतिभागियों के लिए उपलब्ध है;


(ii) AI-Pre प्रौद्योगिकी तक पहुंच विशेष समझौतों के अधीन है जो उपयोग की शर्तों, डेटा हैंडलिंग, बौद्धिक संपत्ति अधिकार, और गोपनीयता को नियंत्रित करती हैं;


(iii) AI प्रौद्योगिकी पूरी तरह से परीक्षण, दस्तावेजित, या समर्थित नहीं हो सकती है, और इसे प्रदान करने वाली कंपनी इसके प्रदर्शन या किसी विशेष उद्देश्य के लिए उपयुक्तता के संबंध में कोई वारंटी या गारंटी नहीं देती है।


(iv) AI-Pre प्रौद्योगिकी के उपयोगकर्ताओं से अपेक्षित है कि वे तकनीक की प्रभावशीलता और संभावित समस्याओं पर फीडबैक प्रदान करें, और परीक्षण के दौरान मिली जानकारी और डेटा को साझा करें जो उत्पाद या सेवा को अंतिम रिलीज के लिए सुधारने में मदद कर सकता है।


धारा 7 – कृत्रिम बुद्धिमत्ता तकनीकों की प्रक्रिया और प्रमाणीकरण


(1) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की प्रक्रिया और प्रमाणीकरण के लिए निम्नलिखित चरणों का पालन किया जाएगा:


(i) केंद्रीय सरकार या भारतीय कृत्रिम बुद्धिमत्ता परिषद (IAIC) द्वारा निर्दिष्ट मानकों और मानदंडों के अनुसार, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की प्रक्रिया की जाएगी।


(ii) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की प्रक्रिया और प्रमाणीकरण के लिए आवेदक को आवश्यक दस्तावेज और प्रमाण पत्र प्रस्तुत करने होंगे, जिसमें तकनीकी विवरण, उपयोगकर्ता डेटा सुरक्षा नीति, और अन्य आवश्यक जानकारी शामिल है।


(iii) प्रमाणीकरण प्रक्रिया के दौरान, कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के प्रदर्शन, सुरक्षा, और प्रासंगिकता का मूल्यांकन किया जाएगा। इसमें प्रौद्योगिकी की प्रभावशीलता, सटीकता, और उपयोगकर्ता अनुभव पर ध्यान दिया जाएगा।


(iv) प्रमाणीकरण के लिए एक स्वतंत्र और मान्यता प्राप्त प्रमाणीकरण संस्था या निकाय को नियुक्त किया जाएगा, जो कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की प्रक्रिया और प्रमाणीकरण के लिए जिम्मेदार होगा।


(2) प्रमाणीकरण के बाद, कृत्रिम बुद्धिमत्ता प्रौद्योगिकी को मान्यता प्राप्त प्रमाण पत्र प्रदान किया जाएगा, जो इसके उचित उपयोग, सुरक्षा, और गुणवत्ता को सुनिश्चित करेगा।


(3) मान्यता प्राप्त प्रौद्योगिकियों को समय-समय पर निरीक्षण और मूल्यांकन के लिए प्रस्तुत करना होगा, ताकि उनके मानकों और मानदंडों के अनुरूप होने की पुष्टि की जा सके।


धारा 8 – कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की समीक्षा और निगरानी


(1) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की रिपोर्टिंग और निगरानी के लिए निम्नलिखित उपाय किए जाएंगे:


(i) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की तैनाती और उपयोग की नियमित समीक्षा सूचित की जाएगी, जिसमें प्रौद्योगिकी के उपयोग के विवरण, प्रदर्शन डेटा, और किसी भी तकनीकी या सुरक्षा मुद्दों की जानकारी शामिल होगी।


(ii) सभी कृत्रिम बुद्धिमत्ता प्रौद्योगिकी प्रदाताओं को केंद्रीय सरकार या IAIC को नियमित अंतराल पर समीक्षा प्रस्तुत करनी होगी, जिसमें प्रौद्योगिकी के उपयोग के प्रभाव और लाभ, संभावित जोखिम, और सुरक्षा प्रोटोकॉल की जानकारी शामिल होगी।


(iii) कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों की निगरानी के लिए एक केंद्रीय निगरानी प्रणाली स्थापित की जाएगी, जो प्रौद्योगिकियों के प्रदर्शन, सुरक्षा, और अनुपालन को अनुरेखित करेगी।


(iv) निगरानी और समीक्षा प्रणाली को अद्यतित रखने और प्रभावी बनाने के लिए नियमित रूप से समीक्षा की जाएगी, और आवश्यकतानुसार सुधारात्मक उपाय किए जाएंगे।


(2) यदि किसी कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के उपयोग से संबंधित कोई समस्या या उल्लंघन पाया जाता है, तो केंद्रीय सरकार या IAIC आवश्यक जांच और सुधारात्मक कार्रवाई करेगी, जिसमें उपयोग को अस्थायी या स्थायी रूप से निलंबित करना शामिल हो सकता है।


अध्याय 2

अध्याय III: भारतीय कृत्रिम बुद्धिमत्ता परिषद


धारा 10 - संगठन और कार्य


(1) केंद्रीय सरकार द्वारा अधिसूचित तिथि से प्रभावी होते हुए, भारतीय कृत्रिम बुद्धिमत्ता परिषद (IAIC) की स्थापना की जाएगी, जो इस अधिनियम के उद्देश्यों के लिए एक वैधानिक निकाय होगा।


(2) IAIC एक स्वायत्त कानूनी इकाई होगी, जिसमें निरंतर उत्तराधिकार, एक सामान्य मुहर, और संपत्ति प्राप्त करने, धारण करने और हस्तांतरित करने की शक्ति होगी, चाहे वह चल संपत्ति हो या अचल संपत्ति, साथ ही अनुबंध करने और अनुबंध में शामिल होने, और अपने नाम से मुकदमा करने या मुकदमे का सामना करने की शक्ति होगी।


(3) IAIC सभी सरकारी निकायों, मंत्रालयों, विभागों, और नियामक प्राधिकरणों में कृत्रिम बुद्धिमत्ता प्रणालियों के विकास, कार्यान्वयन और प्रबंधन का समन्वय और निगरानी करेगा, एक सम्पूर्ण-सरकारी दृष्टिकोण को अपनाते हुए।


(4) IAIC का मुख्यालय केंद्रीय सरकार द्वारा अधिसूचित स्थान पर स्थित होगा।


(5) IAIC में एक अध्यक्ष और केंद्रीय सरकार द्वारा अधिसूचित अन्य सदस्यों की संख्या, जो [X] से अधिक नहीं होगी, शामिल होंगे।


(6) अध्यक्ष और सदस्य केंद्रीय सरकार द्वारा पारदर्शी और योग्यता आधारित चयन प्रक्रिया के माध्यम से नियुक्त किए जाएंगे, जैसा कि निर्धारित किया जा सकता है।


(7) अध्यक्ष और सदस्य प्रतिष्ठा, ईमानदारी और सम्मान के व्यक्ति होंगे, जिनके पास IAIC के कार्यों से संबंधित क्षेत्रों में विशेष ज्ञान या व्यावहारिक अनुभव होगा, जिसमें निम्नलिखित शामिल हैं, लेकिन इन्हीं तक सीमित नहीं:


(i) डेटा और कृत्रिम बुद्धिमत्ता का प्रबंधन, नीति और विनियमन;


(ii) उपभोक्ता सुरक्षा, डिजिटल अधिकार और कृत्रिम बुद्धिमत्ता और अन्य उभरती तकनीकों से संबंधित कानूनों का प्रशासन या कार्यान्वयन;


(iii) विवाद समाधान, विशेष रूप से प्रौद्योगिकी और डेटा से संबंधित विवाद;


(iv) सूचना और संचार प्रौद्योगिकी, डिजिटल अर्थव्यवस्था और विघटनकारी प्रौद्योगिकियां;


(v) कृत्रिम बुद्धिमत्ता, डेटा संरक्षण और संबंधित क्षेत्रों पर केंद्रित कानून, विनियमन या तकनीकी विनियमन;


(vi) कोई अन्य प्रासंगिक क्षेत्र जिसे केंद्रीय सरकार लाभकारी मानती है।


(8) कम से कम तीन सदस्य कानून के विशेषज्ञ होंगे जिनके पास कृत्रिम बुद्धिमत्ता, डेटा संरक्षण और उभरती तकनीकों से संबंधित कानूनी और नियामक ढांचों की गहरी समझ होगी।


(9) IAIC के निम्नलिखित कार्य होंगे:


(i) भारत में AI प्रणालियों के जिम्मेदार विकास, कार्यान्वयन और प्रबंधन के लिए नीतियों, दिशानिर्देशों और मानकों को विकसित और लागू करना;


(ii) संबंधित मंत्रालयों, नियामक निकायों और हितधारकों के साथ समन्वय और सहयोग करना ताकि विभिन्न क्षेत्रों में समन्वित AI प्रबंधन सुनिश्चित किया जा सके;


(iii) धारा 12 के अनुसार राष्ट्रीय AI उपयोग केस रजिस्ट्री की स्थापना और रखरखाव करना;


(iv) धारा 11 में निर्दिष्ट AI प्रणालियों के प्रमाणन योजना का प्रबंधन करना;


(v) धारा 13 में वर्णित राष्ट्रीय AI नैतिकता कोड को विकसित और प्रोत्साहित करना;


(vi) AI के सामाजिक प्रभावों पर हितधारक परामर्श, सार्वजनिक संवाद और जागरूकता को सुविधाजनक बनाना;


(vii) जिम्मेदारी और नैतिकता पर ध्यान केंद्रित करते हुए AI में अनुसंधान, विकास और नवाचार को प्रोत्साहित करना;


(viii) IAIC द्वारा इस अधिनियम के तहत जारी की गई नीतियों, मानकों और दिशानिर्देशों के अनुपालन को सुनिश्चित करने के लिए नियामक कार्रवाई करना, जिसमें निम्नलिखित शामिल हो सकते हैं:


(a) अनुपालन न करने वाली संस्थाओं को कारण बताओ नोटिस जारी करना, जिसमें उन्हें अनुपालन न करने के कारण स्पष्ट करने और निर्दिष्ट समय सीमा के भीतर सुधारात्मक उपायों का विवरण देने की आवश्यकता होगी;


(b) अनुपालन की गंभीरता, जोखिम स्तर और व्यक्तियों, व्यवसायों, या समाज पर संभावित प्रभाव के आधार पर मौद्रिक दंड लगाना, दंड को अनुपालन न करने वाली संस्था की वित्तीय क्षमता के अनुसार होना चाहिए;


(c) अनुपालन न करने वाली AI प्रणालियों से संबंधित प्रमाणपत्र, पंजीकरण या अनुमोदनों को निलंबित या रद्द करना, और अनुपालन प्राप्त होने तक उनके विकास, कार्यान्वयन, या संचालन को रोकना;


(d) अनुपालन न करने वाली संस्था की प्रक्रियाओं के स्वतंत्र ऑडिट की मांग करना, जिनकी लागत उन्हें स्वयं वहन करनी होगी, और ऑडिट रिपोर्ट IAIC को समीक्षा और आगे की कार्रवाई के लिए प्रस्तुत करनी होगी;


(e) अनुपालन न करने वाली संस्थाओं को विशिष्ट सुधारात्मक उपायों को लागू करने के लिए निर्देश जारी करना, जैसे डेटा गुणवत्ता नियंत्रण को सुधारना, प्रबंधन ढांचे को बेहतर बनाना, या निर्णय-निर्माण प्रक्रियाओं को सशक्त करना;


(f) निरंतर या गंभीर अनुपालन न करने के मामलों में, अनुपालन न करने वाली संस्था की AI संबंधित गतिविधियों के अस्थायी या स्थायी निलंबन की सिफारिश करना, उचित प्रक्रिया और प्राकृतिक न्याय के सिद्धांतों के अनुसार;


(g) निर्धारित मानकों के अनुपालन को सुनिश्चित करने और AI प्रणालियों के जिम्मेदार विकास, कार्यान्वयन और उपयोग की रक्षा के लिए आवश्यक और समानुपातिक नियामक कार्रवाई लेना।


(ix) AI नीति, विनियमन और प्रबंधन से संबंधित मामलों में केंद्रीय सरकार को सलाह देना, और आवश्यकतानुसार विधायी या नियामक परिवर्तनों की सिफारिश करना;


(x) इस अधिनियम के उद्देश्यों को प्राप्त करने के लिए आवश्यक कोई अन्य कार्य करना या केंद्रीय सरकार द्वारा सौंपे गए कार्यों को पूरा करना।


(10) IAIC सलाहकार समितियों, विशेषज्ञ समूहों या कार्य बलों की स्थापना कर सकता है, जैसा कि आवश्यक समझा जाए, ताकि इसके कार्यों में सहायता प्राप्त की जा सके।


(11) IAIC यथासंभव डिजिटल कार्यालय के रूप में कार्य करने का प्रयास करेगा, डिजिटल माध्यमों के माध्यम से कार्यवाही, फाइलिंग, सुनवाई और घोषणाएं करेगा, जो लागू कानूनों के अनुसार होगा।

अध्याय III

अध्याय IV: प्रमाणन और नैतिकता संहिता


धारा 11 – एआई प्रणालियों का पंजीकरण और प्रमाणन


(1) IAIC एआई प्रणालियों के लिए उनकी उद्योग उपयोग मामलों और जोखिम स्तरों के आधार पर एक स्वैच्छिक प्रमाणन योजना स्थापित करेगा, जैसा कि अध्याय II में निर्दिष्ट वर्गीकरण के साधनों के आधार पर। यह प्रमाणन योजना जिम्मेदार एआई विकास और परिनियोजन को बढ़ावा देने के लिए डिज़ाइन की जाएगी।


(2) IAIC विभिन्न क्षेत्रों में एआई प्रणालियों के विकास और परिनियोजन को पंजीकृत और ट्रैक करने के लिए धारा 12 में वर्णित राष्ट्रीय कृत्रिम बुद्धिमत्ता उपयोग मामलों की रजिस्ट्री बनाए रखेगा। यह रजिस्ट्री प्रमाणन योजना के विकास और परिष्करण के लिए जानकारी प्रदान करने और कृत्रिम बुद्धिमत्ता शासन में पारदर्शिता और जवाबदेही को बढ़ावा देने के लिए उपयोग की जाएगी।


(3) प्रमाणन योजना स्पष्ट, वस्तुनिष्ठ और जोखिम-आधारित मानदंडों के एक सेट पर आधारित होगी जो एआई प्रणालियों के अंतर्निहित उद्देश्य, तकनीकी विशेषताओं और संभावित प्रभावों का आकलन करेगी।


(4) धारा 7 के तहत संकीर्ण या मध्यम जोखिम के रूप में वर्गीकृत एआई प्रणालियों और धारा 6 के उप-धारा (8) के तहत एआई-प्रे प्रमाणन आवश्यकता से छूट प्राप्त कर सकते हैं यदि वे निम्नलिखित में से एक या अधिक शर्तों को पूरा करते हैं:


(a) एआई प्रणाली अभी विकास या परीक्षण के प्रारंभिक चरणों में है और प्रभावी मानकीकरण के लिए तकनीकी या आर्थिक सीमाओं को प्राप्त नहीं किया है;


(b) एआई प्रणाली एक अत्यधिक विशिष्ट या आला अनुप्रयोग क्षेत्र में विकसित या तैनात की जा रही है जहां प्रमाणन संभव या उपयुक्त नहीं हो सकता है; या


(c) एआई प्रणाली स्टार्टअप्स, सूक्ष्म, छोटे और मध्यम उद्यमों, या अनुसंधान संस्थानों द्वारा विकसित या तैनात की जा रही है।


(5) उप-धारा (4) के तहत छूट प्राप्त एआई प्रणालियों को धारा 19 में निर्दिष्ट घटना रिपोर्टिंग और प्रतिक्रिया प्रोटोकॉल स्थापित और बनाए रखना होगा। इन प्रोटोकॉल को बनाए रखने में विफलता छूट को रद्द कर सकती है।


(6) धारा 4 में उल्लिखित मुद्दा-से-मुद्दा अवधारणा वर्गीकरण (IICC), नैतिकता-आधारित अवधारणा वर्गीकरण (EBCC), घटना-आधारित अवधारणा वर्गीकरण (PBCC), और मानवकृत अवधारणा वर्गीकरण (ABCC) केवल परामर्श और सलाह के उद्देश्य से है, और इस धारा के तहत राष्ट्रीय एआई उपयोग मामलों की रजिस्ट्री के लिए इसका अनुप्रयोग अनिवार्य नहीं है।


(7) उप-धारा (6) में निहित किसी भी चीज़ के बावजूद, धारा 7(4) में परिभाषित उच्च जोखिम एआई प्रणालियों और धारा 9 में निर्दिष्ट रणनीतिक क्षेत्रों से जुड़ी उच्च जोखिम एआई प्रणालियों के लिए वैचारिक वर्गीकरण विधियां अनिवार्य होंगी।


(8) जिन एआई प्रणालियों को उप-धारा (7) के अंतर्गत कवर नहीं किया गया है, उनके लिए वैचारिक वर्गीकरण विधियां एआई प्रणालियों से संबंधित चर्चाओं, आकलनों और निर्णय लेने का मार्गदर्शन करने के लिए एक ढांचे के रूप में काम करेंगी, जिसका प्राथमिक उद्देश्य नीतिगत विकास, हितधारक परामर्श, और न्यायिक प्रक्रियाओं को सूचित करने के लिए इन प्रणालियों के अंतर्निहित उद्देश्य, नैतिक प्रभावों, अधिकार-आधारित विचारों और मानवकृत विशेषताओं की जांच के लिए एक संरचित दृष्टिकोण प्रदान करना है।


(9) प्रमाणन योजना और अध्याय II में निर्दिष्ट वर्गीकरण विधियों की प्रासंगिकता और प्रभावशीलता को सुनिश्चित करने के लिए तकनीकी प्रगति और बाजार विकास के जवाब में हर 12 महीने में नियमित समीक्षा और अद्यतन किया जाएगा। समीक्षा प्रक्रिया में क्षेत्र-विशिष्ट नियामकों और बाजार हितधारकों के साथ सार्थक परामर्श शामिल होगा।


धारा 12 – कृत्रिम बुद्धिमत्ता उपयोग मामलों की राष्ट्रीय रजिस्ट्री


(1) कृत्रिम बुद्धिमत्ता उपयोग मामलों की राष्ट्रीय रजिस्ट्री में प्रत्येक पंजीकृत एआई प्रणाली के लिए उप-धारा (1)(a) से (1)(p) में निर्दिष्ट मेटाडेटा शामिल होंगे:


(a) एआई प्रणाली का नाम और संस्करण (आवश्यक)

(b) एआई प्रणाली की स्वामित्व इकाई (आवश्यक)

(c) पंजीकरण की तिथि (आवश्यक)

(d) एआई प्रणाली से जुड़ा क्षेत्र और क्या एआई प्रणाली एक रणनीतिक क्षेत्र से जुड़ी है (आवश्यक)

(e) एआई प्रणाली के विशिष्ट उपयोग मामले (आवश्यक)

(f) अनुभाग 5 के अनुसार एआई प्रणाली का तकनीकी वर्गीकरण (आवश्यक)

(g) अनुभाग 5 के अनुसार एआई प्रणाली की प्रमुख तकनीकी विशेषताएं, जिनमें शामिल हैं:


(i) उपयोग किए गए एआई मॉडल का प्रकार (आवश्यक)

(ii) प्रशिक्षण डेटा स्रोत और विशेषताएं (आवश्यक)

(iii) मानक बेंचमार्क पर प्रदर्शन मेट्रिक्स (जहां उपलब्ध, वैकल्पिक)


(h) धारा 6 के अनुसार एआई प्रणाली का व्यावसायिक वर्गीकरण (आवश्यक)


(i) अनुभाग 6 के अनुसार एआई प्रणाली की प्रमुख व्यावसायिक विशेषताएं, जिनमें शामिल हैं:

(i) भारत में अंतिम उपयोगकर्ताओं और व्यापारिक अंतिम उपयोगकर्ताओं की संख्या (जहां लागू हो, आवश्यक)

(ii) उपयोग के इच्छित क्षेत्रों में बाजार हिस्सेदारी या बाजार प्रभाव का स्तर (जहां पता लगाना संभव हो, आवश्यक)

(iii) एआई प्रणाली या इसे स्वामित्व वाली कंपनी द्वारा उत्पन्न वार्षिक टर्नओवर या राजस्व (जहां लागू हो, आवश्यक)

(iv) एआई प्रणाली द्वारा एकत्रित, संसाधित, या उपयोग किए गए डेटा की मात्रा और उद्देश्य (जहां मापने योग्य हो, आवश्यक)

(v) विभिन्न सेवाओं या प्लेटफार्मों के बीच डेटा एकीकरण का स्तर (जहां लागू हो, आवश्यक)


(j) अनुभाग 7 के अनुसार एआई प्रणाली का जोखिम वर्गीकरण (आवश्यक)


(k) अनुभाग 4 के अनुसार एआई प्रणाली का वैचारिक वर्गीकरण (केवल उच्च जोखिम एआई प्रणालियों के लिए आवश्यक)


(l) अनुभाग 7 के अनुसार एआई प्रणाली के संभावित प्रभाव, जिनमें शामिल हैं:


(i) अंतर्निहित उद्देश्य (आवश्यक)

(ii) स्वामित्व इकाई द्वारा प्रलेखित और प्रेक्षित संभावित जोखिम और हानियाँ (आवश्यक)


(m) प्रमाणन स्थिति (आवश्यक) (पंजीकृत और प्रमाणित / पंजीकृत और प्रमाणित नहीं)


(n) अनुभाग 17 के अनुसार एक विस्तृत परिनियोजन-के-बाद निगरानी योजना (केवल उच्च जोखिम एआई प्रणालियों के लिए आवश्यक), जिसमें शामिल हैं:


(i) प्रदर्शन मेट्रिक्स और प्रमुख संकेतकों को ट्रैक करने के लिए (वैकल्पिक)

(ii) जोखिम न्यूनीकरण और मानव निरीक्षण प्रोटोकॉल (आवश्यक)

(iii) डेटा संग्रहण, रिपोर्टिंग, और ऑडिट ट्रेल तंत्र (आवश्यक)

(iv) प्रभावित हितधारकों के लिए प्रतिक्रिया और निवारण चैनल (वैकल्पिक)

(v) तृतीय-पक्ष ऑडिट और सार्वजनिक प्रकटीकरण के लिए प्रतिबद्धताएँ:


(a) निगरानी रिपोर्ट और प्रदर्शन संकेतक (वैकल्पिक)

(b) उप-अनुभाग (3) के अनुसार पहचाने गए जोखिम, घटनाएँ या विफलताओं के विवरण (आवश्यक)

(c) लागू किए गए सुधारात्मक क्रियाएँ और न्यूनीकरण उपाय (आवश्यक)


(o) अनुभाग 19 के अनुसार घटना रिपोर्टिंग और प्रतिक्रिया प्रोटोकॉल (आवश्यक)


(i) घटना रिपोर्टिंग तंत्र का विवरण (जैसे हॉटलाइन, ऑनलाइन पोर्टल)


(ii) जोखिम वर्गीकरण के आधार पर घटना रिपोर्टिंग के लिए प्रतिबद्ध समय-सीमा


(iii) घटना गंभीरता स्तर का आकलन और निर्धारण प्रक्रियाएं


(iv) घटना रिपोर्टों में प्रदान की जाने वाली जानकारी के दिशा-निर्देश


(v) घटना डेटा के लिए गोपनीयता और डेटा संरक्षण उपाय


(vi) घटना के होने पर न्यूनतम न्यूनीकरण क्रियाएँ


(vii) घटना प्रतिक्रिया और न्यूनीकरण के लिए जिम्मेदार कर्मी/टीम


(viii) प्रभावित पार्टियों के साथ सूचित करने और संचार करने के लिए प्रतिबद्धताएँ


(ix) आईएआईसी की केंद्रीय घटना रजिस्ट्री और रिपोर्टिंग चैनलों के साथ एकीकरण


(x) घटना प्रतिक्रिया प्रक्रियाओं की समीक्षा और सुधार प्रक्रियाएँ


(xi) अनुभाग 25 के अनुसार एआई प्रणाली के लिए प्राप्त बीमा कवरेज का विवरण, जिसमें नीति का प्रकार, बीमाकर्ता, पॉलिसी संख्या, और कवरेज सीमाएँ शामिल हैं;


(xii) एआई प्रणाली के जोखिम वर्गीकरण के आधार पर अनुभाग 25 के तहत आवश्यक न्यूनतम बीमा कवरेज का विवरण;


(xiii) प्रमाणन निकाय और संबंधित प्राधिकरण से संपर्क जानकारी



(p) स्वामित्व इकाई के संपर्क विवरण (आवश्यक)


उदाहरण


एक प्रौद्योगिकी कंपनी कंप्यूटर दृष्टि और मशीन लर्निंग तकनीकों का उपयोग करके स्वचालित चिकित्सा निदान के लिए एक नया एआई सिस्टम विकसित करती है। यह एआई सिस्टम मानव स्वास्थ्य और सुरक्षा पर संभावित प्रभाव के कारण धारा 7(4) के तहत उच्च जोखिम वाले सिस्टम के रूप में वर्गीकृत किया जाएगा। कंपनी इस एआई सिस्टम को राष्ट्रीय कृत्रिम बुद्धिमत्ता उपयोग मामलों की रजिस्ट्री में पंजीकृत करती है और निम्नलिखित मेटाडेटा प्रदान करती है:


(a) नाम और संस्करण: मेडविजन एआई डायग्नोस्टिक सिस्टम v1.2


(b) स्वामित्व इकाई: एबीसी टेक्नोलॉजीज प्राइवेट लिमिटेड


(c) पंजीकरण की तिथि: 01/05/2024


(d) क्षेत्र: स्वास्थ्य देखभाल


(e) उपयोग का मामला: बीमारियों का पता लगाने और निदान करने के लिए चिकित्सा इमेजिंग डेटा (एक्स-रे, सीटी स्कैन, एमआरआई) का स्वचालित विश्लेषण


(f) तकनीकी वर्गीकरण: धारा 5(4) के तहत विशिष्ट उद्देश्य एआई (एसपीएआई)


(g) प्रमुख तकनीकी विशेषताएँ:


- इमेज विश्लेषण के लिए कन्वोल्यूशनल न्यूरल नेटवर्क

- अस्पतालों से प्राप्त अज्ञात चिकित्सा इमेजिंग डेटासेट पर प्रशिक्षित

- मानक बेंचमार्क पर 92% सटीकता प्राप्त की


(h) व्यावसायिक वर्गीकरण: धारा 6(3) के तहत एआई-प्रो


(i) प्रमुख व्यावसायिक विशेषताएँ:


- पूरे भारत में स्वास्थ्य सेवा प्रदाताओं द्वारा उपयोग के लिए अभिप्रेत

- अभी तक तैनात नहीं किया गया है, इसलिए कोई बाजार हिस्सेदारी डेटा नहीं है

- अभी तक कोई राजस्व उत्पन्न नहीं हुआ है (पूर्व-व्यावसायिक)


(j) जोखिम वर्गीकरण: धारा 7(4) के तहत उच्च जोखिम


(k) वैचारिक वर्गीकरण: उच्च जोखिम के कारण धारा 4 में सभी चार तरीकों से मूल्यांकन किया गया


(l) संभावित प्रभाव:


- अंतर्निहित उद्देश्य चिकित्सा पेशेवरों को निदान में सहायता करना है

- प्रलेखित जोखिमों में गलत निदान, पूर्वाग्रह, व्याख्या की कमी शामिल हैं


(m) प्रमाणन स्थिति: पंजीकृत और प्रमाणित


(n) पोस्ट-डिप्लॉयमेंट मॉनिटरिंग प्लान:


- सटीकता, झूठे सकारात्मक/नकारात्मक दरों जैसे प्रदर्शन मेट्रिक्स

- मानव निरीक्षण, पूर्वाग्रह/त्रुटियों के लिए आवधिक ऑडिट

- ऑडिट ट्रेल के लिए सभी आउटपुट, निर्णयों को लॉग करना

- उपयोगकर्ता प्रतिक्रिया, शिकायत निवारण के लिए चैनल

- तृतीय-पक्ष ऑडिट, सार्वजनिक घटना प्रकटीकरण के लिए प्रतिबद्धताएँ


(o) घटना रिपोर्टिंग प्रोटोकॉल:


- घटना रिपोर्टिंग के लिए समर्पित ऑनलाइन पोर्टल

- गंभीर घटनाओं को 48 घंटे के भीतर रिपोर्ट करना

- उच्च/मध्यम गंभीरता की घटनाओं को 7 दिनों के भीतर

- गंभीरता आकलन, गोपनीयता उपायों के लिए प्रक्रियाएँ

- न्यूनतम शमन कार्य, प्रभावित पार्टी सूचनाएँ

- आईएआईसी घटना रिपॉजिटरी के साथ एकीकरण

- बीमा कवरेज विवरण:

- पेशेवर देयता नीति, पॉलिसी #PI12345, INR 50 करोड़ की कवरेज सीमा

- दावों को 24 घंटे के भीतर सूचित करना, 7 दिनों के भीतर सहायक दस्तावेज

- एआई सिस्टम जीवनचक्र के दौरान कवरेज बनाए रखना, परिवर्तनों की अधिसूचना


(p) संपर्क: info@abctech.com


(2) IAIC समय-समय पर राष्ट्रीय रजिस्ट्री के लिए मेटाडेटा योजना का विस्तार या संशोधन कर सकता है ताकि एआई प्रौद्योगिकी और जोखिम आकलन पद्धतियों में प्रगति को दर्शाया जा सके। आईएआईसी किसी भी ऐसे बदलाव की तारीख से कम से कम 60 दिन पहले नोटिस देगा जिस दिन वे प्रभावी होंगे।


(3) एआई सिस्टम के मालिकों का कर्तव्य होगा कि वे पंजीकरण के समय सटीक और वर्तमान मेटाडेटा प्रदान करें और पंजीकृत जानकारी में किसी भी भौतिक परिवर्तन की अधिसूचना आईएआईसी को दें:


(i) धारा 7 के उप-अनुभाग (4) के तहत उच्च जोखिम के रूप में वर्गीकृत एआई सिस्टम के लिए ऐसे परिवर्तन होने के 15 दिनों के भीतर;


(ii) धारा 7 के उप-अनुभाग (3) के तहत मध्यम जोखिम के रूप में वर्गीकृत एआई सिस्टम के लिए ऐसे परिवर्तन होने के 30 दिनों के भीतर;


(iii) धारा 7 के उप-अनुभाग (2) के तहत संकीर्ण जोखिम के रूप में वर्गीकृत एआई सिस्टम के लिए ऐसे परिवर्तन होने के 60 दिनों के भीतर;


(iv) धारा 7 के तहत संकीर्ण जोखिम या मध्यम जोखिम के रूप में वर्गीकृत एआई सिस्टम के लिए ऐसे परिवर्तन होने के 90 दिनों के भीतर, जिन्हें धारा 11 के उप-अनुभाग (3) के तहत प्रमाणन से छूट दी गई है।


(4) उप-धारा (1) में निहित किसी भी बात के बावजूद, धारा 11 के उप-धारा (3) के तहत छूट प्राप्त एआई सिस्टम के मालिकों को अपने एआई सिस्टम को पंजीकृत करने के लिए केवल उप-अनुभाग (4)(a) से (4)(k) में निर्दिष्ट मेटाडेटा प्रस्तुत करने की आवश्यकता होगी:


(a) एआई सिस्टम का नाम और संस्करण (आवश्यक)


(b) एआई सिस्टम की स्वामित्व इकाई (आवश्यक)


(c) पंजीकरण की तिथि (आवश्यक)


(d) एआई सिस्टम के साथ जुड़े क्षेत्र (वैकल्पिक)


(e) एआई सिस्टम के विशिष्ट उपयोग के मामले (आवश्यक)


(f) धारा 5 के अनुसार एआई सिस्टम का तकनीकी वर्गीकरण (वैकल्पिक)


(g) धारा 6 के अनुसार एआई सिस्टम का व्यावसायिक वर्गीकरण (आवश्यक)


(h) धारा 7 के अनुसार एआई सिस्टम का जोखिम वर्गीकरण (आवश्यक, संकीर्ण जोखिम या मध्यम जोखिम)


(i) प्रमाणन स्थिति (आवश्यक) (धारा 11 के उप-अनुभाग (3) के तहत पंजीकृत और प्रमाणन छूट प्राप्त)


(j) धारा 19 के अनुसार घटना रिपोर्टिंग और प्रतिक्रिया प्रोटोकॉल (आवश्यक)


(i) स्थापित घटना रिपोर्टिंग तंत्र का विवरण (जैसे हॉटलाइन, ऑनलाइन पोर्टल)


(ii) उच्च/गंभीर गंभीरता की घटनाओं के लिए रिपोर्टिंग समयसीमा (14-30 दिनों के भीतर)


(iii) घटना गंभीरता स्तरों के आकलन और निर्धारण के लिए प्रक्रियाएँ (केवल उच्च/गंभीर)


(iv) घटना रिपोर्ट में प्रदान की जाने वाली जानकारी (घटना विवरण, सिस्टम विवरण)


(v) घटना डेटा की संवेदनशीलता के आधार पर गोपनीयता उपाय (कम किए गए)


(vi) उच्च/गंभीर घटना होने पर न्यूनतम शमन क्रियाएँ


(vii) घटना प्रतिक्रिया और शमन के लिए जिम्मेदार कर्मी/टीम


(viii) प्रभावित पार्टियों को सूचित करने और संचार करने की प्रतिबद्धताएँ


(ix) आईएआईसी के केंद्रीय घटना रिपॉजिटरी और रिपोर्टिंग चैनलों के साथ एकीकरण


(x) धारा 25 के अनुसार एआई सिस्टम के लिए प्राप्त बीमा कवरेज का विवरण, जिसमें नीति का प्रकार, बीमाकर्ता, पॉलिसी संख्या और कवरेज सीमा शामिल है (केवल उच्च जोखिम वाले एआई सिस्टम के लिए आवश्यक);


(k) स्वामित्व इकाई के संपर्क विवरण (आवश्यक)


उदाहरण


एक छोटी एआई स्टार्टअप प्राकृतिक भाषा प्रसंस्करण तकनीकों का उपयोग करके बुनियादी ग्राहक सेवा प्रश्नों के लिए एक चैटबॉट विकसित करती है। एक निम्न-जोखिम वाले एआई सिस्टम के रूप में जो अभी भी प्रारंभिक विकास चरणों में है, वे धारा 11(3) के तहत छूट का दावा करते हैं और निम्नलिखित सीमित मेटाडेटा के साथ पंजीकृत होते हैं:


(a) नाम और संस्करण: चैटअसिस्ट v0.5 (बीटा)


(b) स्वामित्व इकाई: XYZ AI सॉल्यूशंस एलएलपी


(c) पंजीकरण की तिथि: 15/06/2024


(d) क्षेत्र: प्रदान नहीं किया गया (वैकल्पिक)


(e) उपयोग का मामला: टेक्स्ट/वॉयस के माध्यम से बुनियादी ग्राहक प्रश्नों के स्वचालित उत्तर


(f) तकनीकी वर्गीकरण: धारा 5(4) के तहत विशिष्ट उद्देश्य एआई (एसपीएआई) (वैकल्पिक)


(g) व्यावसायिक वर्गीकरण: धारा 6(8) के तहत एआई-प्रि


(h) जोखिम वर्गीकरण:


धारा 7(2) के तहत संकीर्ण जोखिम


(i) प्रमाणन स्थिति: पंजीकृत और धारा 11(3) के तहत प्रमाणन से छूट प्राप्त


(j) घटना रिपोर्टिंग प्रोटोकॉल:


- घटना रिपोर्टिंग के लिए ईमेल support@xyzai.com


उच्च/गंभीर गंभीरता की घटनाओं के लिए रिपोर्टिंग समयसीमा (14-30 दिनों के भीतर)


- गंभीर घटनाओं को 30 दिनों के भीतर रिपोर्ट करना


घटना गंभीरता स्तरों के आकलन और निर्धारण के लिए प्रक्रियाएँ (केवल उच्च/गंभीर)


- केवल घटना विवरण और सिस्टम विवरण की आवश्यकता है


घटना रिपोर्ट में प्रदान की जाने वाली जानकारी (घटना विवरण, सिस्टम विवरण)


घटना डेटा की संवेदनशीलता के आधार पर गोपनीयता उपाय (कम किए गए)


- कंपनी नीति के अनुसार मानक डेटा संरक्षण उपाय


गंभीर घटना होने पर न्यूनतम शमन क्रियाएँ


- उत्पाद टीम द्वारा शमन, प्रमुख होने पर ग्राहकों को सूचित करना


घटना प्रतिक्रिया और शमन के लिए जिम्मेदार कर्मी/टीम


प्रभावित पार्टियों को सूचित करने और संचार करने की प्रतिबद्धताएँ


आईएआईसी के केंद्रीय घटना रिपॉजिटरी और रिपोर्टिंग चैनलों के साथ एकीकरण


(k) संपर्क: support@xyzai.com


(5) IAIC प्रदत्त मेटाडेटा को सत्यापित करने और पंजीकृत एआई सिस्टम की रिपोर्ट की गई जानकारी के अनुपालन के लिए ऑडिट करने के लिए तंत्र स्थापित करेगा। जहां आईएआईसी यह निर्धारित करता है कि किसी भी डेवलपर या मालिक ने गलत या भ्रामक जानकारी प्रदान की है, वह आवश्यकतानुसार दंड, जुर्माने और प्रमाणन रद्द करने सहित दंड लगा सकता है।


(6) आईएआईसी एआई विकास और तैनाती प्रवृत्तियों के बारे में साक्ष्य-आधारित नीतिगत समर्थन, अनुसंधान, और सार्वजनिक जागरूकता के उद्देश्यों के लिए राष्ट्रीय रजिस्ट्री में मेटाडेटा के आधार पर कुल आंकड़े और विश्लेषण प्रकाशित करेगा। बशर्ते कि वाणिज्यिक रूप से संवेदनशील जानकारी और व्यापार रहस्य का प्रकटीकरण नहीं किया जाएगा।


(7) इस अधिनियम के तहत पंजीकरण और प्रमाणन स्वैच्छिक होगा, और इस अधिनियम में अन्यथा स्पष्ट रूप से प्रदान किए गए अपवादों को छोड़कर किसी भी एआई सिस्टम की पंजीकरण या प्रमाणन की कमी के लिए कोई दंडात्मक परिणाम नहीं होंगे।


(8) एआई उपयोग मामलों के पंजीकरण और प्रमाणन के लिए परीक्षा प्रक्रिया को आईएआईसी द्वारा पारदर्शी और समावेशी तरीके से आयोजित किया जाएगा, जिसमें संबंधित हितधारकों के साथ जुड़ाव शामिल होगा:


(i) कृत्रिम बुद्धिमत्ता के क्षेत्र में तकनीकी विशेषज्ञ और शोधकर्ता, जो परीक्षा के तहत एआई सिस्टम की तकनीकी पहलुओं, क्षमताओं और सीमाओं में अंतर्दृष्टि प्रदान कर सकते हैं।


(ii) एआई प्रौद्योगिकियों को विकसित और तैनात करने वाले उद्योगों के प्रतिनिधि, जो एआई सिस्टम के व्यावसायिक व्यवहार्यता, उपयोग के मामलों और संभावित प्रभावों पर व्यावहारिक दृष्टिकोण प्रदान कर सकते हैं।


(iii) प्रौद्योगिकी मानक और व्यापार संघ और उपभोक्ता संरक्षण समूह, जो अंत-उपयोगकर्ताओं, प्रभावित समुदायों और आम जनता के हितों और चिंताओं का प्रतिनिधित्व कर सकते हैं।


(iv) विभिन्न समुदायों के प्रतिनिधि और व्यक्ति जो एआई सिस्टम से प्रभावित हो सकते हैं, यह सुनिश्चित करने के लिए कि परीक्षा प्रक्रिया के दौरान विभिन्न संदर्भों में उनके अधिकार, आवश्यकताएं, अनुभव और दृष्टिकोण को व्यापक रूप से ध्यान में रखा जाए।


(v) अन्य कोई भी संबंधित हितधारक या विषय विशेषज्ञ जिन्हें आईएआईसी एआई उपयोग मामलों की व्यापक और समावेशी परीक्षा के लिए आवश्यक मानता है।


(9) आईएआईसी अपने परीक्षाओं के परिणामों को पंजीकरण और प्रमाणन के लिए प्रकाशित करेगा, साथ ही जोखिम शमन उपायों, नियामक कार्रवाइयों या दिशानिर्देशों के लिए किसी भी सिफारिशों के साथ, सार्वजनिक समीक्षा और प्रतिक्रिया के लिए एक सुलभ प्रारूप में। इसमें लागू वर्गीकरण मानदंडों के विस्तृत स्पष्टीकरण, विचार किए गए हितधारकों के इनपुट, और लिए गए निर्णयों के पीछे तर्क शामिल होगा।


अनुभाग 13 – नैतिकता संहिता


(1) IAIC एआई नैतिकता के लिए एक व्यापक रूपरेखा विकसित और प्रकाशित करेगा, जो अनुभाग 12 के तहत पंजीकृत एआई प्रणालियों के लिए उप-अनुभाग (4) में निर्दिष्ट निम्नलिखित सिद्धांतों और दिशानिर्देशों को समाहित करेगी:


(2) एआई प्रणालियों को व्यक्तियों की गोपनीयता, गरिमा, और स्वायत्तता का सम्मान करना चाहिए, और उन्हें नैतिक और कानूनी सीमाओं के भीतर कार्य करना चाहिए।


(3) एआई प्रणालियों को निष्पक्षता और गैर-पक्षपात का पालन करना चाहिए, यह सुनिश्चित करना चाहिए कि एआई के निर्णयों और कार्रवाइयों में पूर्वाग्रह और भेदभाव का कोई स्थान न हो।


(4) एआई प्रणालियों को पारदर्शिता और उत्तरदायित्व के सिद्धांतों को अपनाना चाहिए, यह सुनिश्चित करना चाहिए कि एआई प्रणालियों का उपयोग और उनका निर्णय लेने का तरीका स्पष्ट और समझने योग्य हो।


(5) एआई प्रणालियों को सुरक्षा और स्थिरता को प्राथमिकता देनी चाहिए, यह सुनिश्चित करना चाहिए कि एआई प्रणालियां मानव सुरक्षा, पर्यावरण संरक्षण, और समग्र स्थिरता के लक्ष्यों के अनुरूप कार्य करें।


(6) एआई प्रणालियों को नैतिक और सामाजिक प्रभाव का मूल्यांकन और प्रबंधन करना चाहिए, यह सुनिश्चित करना चाहिए कि एआई प्रणालियों का उपयोग समाज में सकारात्मक प्रभाव डालें और नकारात्मक प्रभावों को न्यूनतम करें।


(7) एआई प्रणालियों को जिम्मेदार नवाचार को बढ़ावा देना चाहिए, यह सुनिश्चित करना चाहिए कि एआई के विकास और उपयोग के दौरान नैतिकता और समाज के लाभ को प्राथमिकता दी जाए।


(8) IAIC इन सिद्धांतों के अनुपालन की निगरानी करेगा और यदि आवश्यक हो, तो उल्लंघन के मामलों में सुधारात्मक कार्रवाई की सिफारिश करेगा।

अध्याय IV

अध्याय ५: ज्ञान प्रबंधन और निर्णय लेना


धारा 14 - ज्ञान प्रबंधन पर मॉडल मानक

(1) आईएआईसी उच्च जोखिम वाली एआई प्रणालियों के विकास, रखरखाव और प्रशासन से संबंधित ज्ञान प्रबंधन प्रथाओं पर व्यापक मॉडल मानकों को विकसित, दस्तावेजित और बढ़ावा देगा । ये मानक ज्ञान परिसंपत्तियों के प्रभावी प्रबंधन पर ध्यान केंद्रित करेंगे;

 

(2) मॉडल मानकों में निम्नलिखित क्षेत्र शामिल होंगे:

(i) पेटेंट, कॉपीराइट, ट्रेडमार्क और औद्योगिक डिजाइन जैसे एआई-संबंधित बौद्धिक संपदा अधिकारों की सुरक्षा और लाभ उठाने के लिए बौद्धिक संपदा प्रबंधन प्रथाएँ।

(ii) एआई प्रणालियों से संबंधित अनुसंधान रिपोर्ट, मैनुअल, मानक और औद्योगिक प्रथाओं जैसी तकनीकी ज्ञान परिसंपत्तियों का दस्तावेजीकरण और आयोजन करने की प्रक्रियाएँ।

(iii) एआई विकास और परिनियोजन में शामिल मानव पूंजी के मौन ज्ञान और विशेषज्ञता को प्राप्त करने, बनाए रखने और स्थानांतरित करने के लिए रूपरेखा।

(iv) एआई प्रणाली जीवनचक्र में प्रभावी ज्ञान अधिग्रहण, भंडारण, पुनर्प्राप्ति और उपयोग को सक्षम करने के लिए संगठनात्मक प्रणालियाँ और कार्यप्रणाली।

(v) एआई प्रणाली विकास और प्रदर्शन को बढ़ाने के लिए डेटा, फीडबैक और अंतर्दृष्टि जैसे ग्राहक-संबंधित ज्ञान परिसंपत्तियों का लाभ उठाने के लिए तंत्र।

(vi) डेटा विश्लेषण से ज्ञान प्राप्त करने के लिए विश्लेषणात्मक तकनीकें, जिनमें पैटर्न, प्रवृत्तियों की पहचान करना और एआई प्रणालियों के लिए पूर्वानुमान मॉडल विकसित करना शामिल है।

(vii) टीमों, अभ्यास समुदायों और अन्य पहलों के माध्यम से अंतर-कार्यात्मक ज्ञान साझाकरण और सृजन को बढ़ावा देने के लिए सहयोगात्मक अभ्यास।

 

(3) उच्च जोखिम वाली एआई प्रणालियों के विकास, तैनाती या उपयोग में लगी सभी संस्थाएँ इस खंड द्वारा प्रदान किए गए ज्ञान प्रबंधन और निर्णय लेने के मॉडल मानकों से बंधी होंगी। ऐसी उच्च जोखिम वाली एआई प्रणालियों के लिए अनुपालन समयसीमा IAIC द्वारा निर्धारित की जाएगी और धारा 12 के तहत उन प्रणालियों के तकनीकी, वाणिज्यिक और जोखिम-आधारित वर्गीकरण के आधार पर भिन्न हो सकती है।

(4)   केंद्र सरकार एआई प्रणालियों के जीवन चक्र से जुड़ी विभिन्न ज्ञान प्रबंधन प्रथाओं और प्रक्रियाओं के मानकीकरण को सक्षम करने के लिए ज्ञान प्रबंधन रजिस्ट्री प्रक्रिया स्थापित करने के लिए आईएआईसी या एजेंसियों को सशक्त बनाएगी।

 

(5) उच्च जोखिम वाली एआई प्रणालियों के विकास के लिए जिम्मेदार संस्थाओं को आईएआईसी को नियमित लेखापरीक्षा रिपोर्ट प्रस्तुत करनी होगी, जिसमें ज्ञान प्रबंधन और निर्णय लेने के लिए मॉडल मानकों के प्रति उनके पालन को रेखांकित किया जाएगा।

 

(6) धारा 6 की उपधारा (1) में उल्लिखित कारकों द्वारा निर्धारित वाणिज्यिक वर्गीकरण के अधीन कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के लिए, ज्ञान प्रबंधन पर इन मॉडल मानकों का अनुपालन करने की आवश्यकता का मूल्यांकन आईएआईसी द्वारा प्रत्येक एआई प्रौद्योगिकी पर लागू विशिष्ट वाणिज्यिक वर्गीकरण कारकों को ध्यान में रखते हुए, मामला-दर-मामला आधार पर किया जाएगा।

 

चित्रण

 

एक स्टार्टअप ने एक AI-संचालित भाषा अनुवाद ऐप विकसित किया है जो उपयोगकर्ताओं को कई भारतीय भाषाओं के बीच पाठ, दस्तावेज़ और भाषण का अनुवाद करने की अनुमति देता है। धारा 6(1) में कारकों के आकलन के आधार पर, जैसे कि ऐप का उपयोगकर्ता आधार, बाजार प्रभाव और डेटा एकीकरण, IAIC यह निर्धारित कर सकता है कि यह AI तकनीक AI-Pro या AIaaS श्रेणी में आती है। IAIC तब मूल्यांकन करेगा कि क्या स्टार्टअप को ज्ञान प्रबंधन मानकों का पूरी तरह से पालन करने की आवश्यकता है या क्या ऐप के विशिष्ट उपयोग के मामले और वाणिज्यिक प्रोफ़ाइल के आधार पर कुछ आवश्यकताओं को शिथिल या वैकल्पिक बनाया जा सकता है।

 

(7) धारा 6 की उपधारा (1) के तहत व्यावसायिक रूप से वर्गीकृत एआई प्रौद्योगिकियों के लिए इन मॉडल मानकों के मामले-दर-मामला आवेदन का निर्धारण करने में, आईएआईसी उस क्षेत्र में ज्ञान प्रबंधन प्रथाओं से संबंधित किसी भी प्रासंगिक क्षेत्र-विशिष्ट मानकों, अभ्यास संहिताओं या नियामक दिशानिर्देशों को ध्यान में रखेगा, जिससे एआई प्रौद्योगिकी संबंधित है या जिसे तैनात करने का इरादा है।

चित्रण

एक एग्रीटेक स्टार्टअप ने एक एआई सिस्टम विकसित किया है जो किसानों को फसल की उपज का पूर्वानुमान और सलाहकार सेवाएं प्रदान करने के लिए उपग्रह इमेजरी और मौसम डेटा का विश्लेषण करता है। चूंकि यह एआई तकनीक कृषि क्षेत्र में आती है, इसलिए IAIC द्वारा इसके ज्ञान प्रबंधन आवश्यकताओं का मूल्यांकन भारतीय कृषि अनुसंधान परिषद (ICAR) या कृषि और किसान कल्याण मंत्रालय जैसे निकायों द्वारा जारी किए गए किसी भी प्रासंगिक दिशा-निर्देश या मानकों पर विचार करेगा। इनमें कृषि डेटा के लिए डेटा गवर्नेंस मानदंड, AI-आधारित सलाहकार सेवाओं के लिए मॉडल सत्यापन प्रोटोकॉल या एग्रीटेक अनुप्रयोगों में डेटा ट्रेल्स और ऑडिट लॉग बनाए रखने के लिए सर्वोत्तम अभ्यास शामिल हो सकते हैं।

(8) ज्ञान प्रबंधन और निर्णय लेने की प्रक्रियाओं के लिए निर्धारित मॉडल मानकों का पालन करने में विफलता के परिणामस्वरूप आईएआईसी द्वारा विनियामक कार्रवाई की जाएगी, जिसमें निम्नलिखित शामिल हो सकते हैं:

(i) गैर-अनुपालन करने वाली इकाई को कारण बताओ नोटिस जारी करना, जिसमें उनसे गैर-अनुपालन के कारणों को स्पष्ट करने और निर्दिष्ट समय सीमा के भीतर सुधारात्मक उपायों की रूपरेखा तैयार करने की अपेक्षा की जाएगी।

(ii) गैर-अनुपालन की गंभीरता, शामिल एआई सिस्टम के जोखिम स्तर और व्यक्तियों, व्यवसायों या समाज पर संभावित प्रभाव के आधार पर निर्धारित मौद्रिक दंड लगाना। मौद्रिक दंड गैर-अनुपालन इकाई की वित्तीय क्षमता के अनुरूप होगा।

(iii) गैर-अनुपालन वाली एआई प्रणाली से संबंधित प्रमाणपत्रों या पंजीकरणों को निलंबित या रद्द करना, अनुपालन प्राप्त होने तक इसके आगे के विकास, परिनियोजन या संचालन को रोकना।

(iv) गैर-अनुपालन इकाई के ज्ञान प्रबंधन और निर्णय लेने की प्रक्रियाओं की स्वतंत्र लेखा परीक्षा को अपने स्वयं के खर्च पर अनिवार्य करना, तथा लेखा परीक्षा रिपोर्ट को समीक्षा और आगे की कार्रवाई के लिए IAIC को प्रस्तुत करना।

(v) गैर-अनुपालन इकाई को एक निर्धारित समय-सीमा के भीतर विशिष्ट उपचारात्मक उपायों को लागू करने के लिए निर्देश जारी करना, जैसे डेटा गुणवत्ता नियंत्रण को बढ़ाना, मॉडल गवर्नेंस ढांचे में सुधार करना, या निर्णय लेने की प्रक्रियाओं को मजबूत करना।

(vi) लगातार या गंभीर गैर-अनुपालन के मामलों में, आईएआईसी गैर-अनुपालन इकाई के एआई-संबंधी संचालन के अस्थायी या स्थायी निलंबन की सिफारिश कर सकता है, जो उचित प्रक्रिया और प्राकृतिक न्याय के सिद्धांतों के अधीन है।

(vii) निर्धारित मॉडल मानकों के अनुपालन को सुनिश्चित करने और उच्च जोखिम वाली एआई प्रणालियों के जिम्मेदार विकास, तैनाती और उपयोग की सुरक्षा के लिए आईएआईसी द्वारा आवश्यक और आनुपातिक समझी जाने वाली कोई अन्य नियामक कार्रवाई।

 

(9) आईएआईसी उचित विनियामक कार्रवाई निर्धारित करने के लिए स्पष्ट दिशानिर्देश और मानदंड स्थापित करेगा और प्रकाशित करेगा, जिससे इसकी निर्णय लेने की प्रक्रिया में पारदर्शिता और स्थिरता सुनिश्चित होगी।

(10) आईएआईसी, लागू बौद्धिक संपदा अधिकारों और डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 के प्रावधानों और अन्य प्रासंगिक डेटा संरक्षण और शासन ढांचे के अधीन, खुले स्रोत सॉफ्टवेयर रिपॉजिटरी और प्लेटफार्मों के माध्यम से डेटासेट, मॉडल और एल्गोरिदम सहित एआई-संबंधित ज्ञान को साझा करने को प्रोत्साहित करेगा।

अध्याय V

अध्याय VI: मार्गदर्शन सिद्धांत और निगरानी पर


धारा 15 - एआई-संबंधित समझौतों के लिए मार्गदर्शन सिद्धांत

(1) एआई प्रौद्योगिकियों के विकास, परिनियोजन और उपयोग में पारदर्शी, निष्पक्ष और जिम्मेदार प्रथाओं को बढ़ावा देने के लिए एआई-संबंधित समझौतों पर निम्नलिखित मार्गदर्शन सिद्धांत लागू होंगे:

 

(i) एआई सॉफ्टवेयर लाइसेंस समझौता (एएसएलए):

(ए) धारा 6 के अनुसार एआई-प्रो या एआई-कॉम के रूप में वर्गीकृत एआई प्रणालियों के लिए एआई सॉफ्टवेयर लाइसेंस समझौता (एएसएलए) अनिवार्य होगा, यदि उन्हें धारा 7 के तहत उच्च जोखिम वाली एआई प्रणालियों के रूप में नामित किया गया है।  

(ख) एएसएलए में स्पष्ट रूप से परिभाषित किया जाएगा:

(i) लाइसेंसधारी को दिए गए अधिकारों का दायरा, जिसमें एआई सॉफ्टवेयर के उपयोग, संशोधन और वितरण पर सीमाएं शामिल हैं;

(ii) बौद्धिक संपदा अधिकार और स्वामित्व प्रावधान;

(iii) अवधि, समाप्ति, वारंटी और क्षतिपूर्ति खंड।

 

(ii) एआई सेवा स्तर समझौता (एआई-एसएलए):

(ए) धारा 6 के अनुसार एआईएएएस या एआई-कॉम के रूप में वर्गीकृत एआई प्रणालियों के लिए एआई सेवा स्तर समझौता (एआई-एसएलए) अनिवार्य होगा, यदि उन्हें धारा 7 के तहत उच्च जोखिम या मध्यम जोखिम एआई प्रणालियों के रूप में नामित किया गया है।     

(बी) एआई-एसएलए निम्नलिखित स्थापित करेगा:

(i) सेवा स्तर, प्रदर्शन मीट्रिक्स, उपलब्धता और समर्थन प्रतिबद्धताएँ;

(ii) निगरानी, ​​माप, परिवर्तन प्रबंधन और समस्या समाधान तंत्र;

(iii) डेटा हैंडलिंग, सुरक्षा और व्यवसाय निरंतरता आवश्यकताएँ।

 

(iii) एआई अंतिम-उपयोगकर्ता लाइसेंस समझौता (एआई-ईयूएलए) या एआई अंतिम-ग्राहक लाइसेंस समझौता (एआई-ईसीएलए):

(ए) एआई एंड-यूज़र लाइसेंस समझौता (एआई-ईयूएलए) अंतिम उपयोगकर्ता या ग्राहक परिनियोजन के लिए इच्छित सभी एआई सिस्टम वर्गीकरणों के लिए अनिवार्य होगा;

(ख) एआई-ईयूएलए या एआई-ईसीएलए में निम्नलिखित निर्दिष्ट किया जाएगा:

(i) अनुमत उपयोग और उपयोगकर्ता दायित्व;

(ii) डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 और अन्य साइबर और डेटा संरक्षण ढांचे के साथ संरेखित डेटा गोपनीयता प्रावधान;

(iii) बौद्धिक संपदा अधिकार, वारंटी और दायित्व सीमाएँ।

 

(iv) एआई व्याख्यात्मकता समझौता (एआई-एक्सए):

(ए) धारा 7 के तहत सभी उच्च जोखिम वाली एआई प्रणालियों के लिए एआई व्याख्यात्मक समझौता (एआई-एक्सए) अनिवार्य होगा;

(बी) एआई-एक्सए में निम्नलिखित निर्दिष्ट किया जाएगा:

(i) एआई सिस्टम आउटपुट और निर्णयों के लिए स्पष्ट और समझने योग्य स्पष्टीकरण;

(ii) एआई प्रणाली की निर्णय लेने की प्रक्रियाओं पर दस्तावेजीकरण और रिपोर्टिंग;

(iii) मानवीय समीक्षा और हस्तक्षेप तंत्र के लिए प्रावधान

 

(2) निम्नलिखित समझौते स्वैच्छिक प्रकृति के होंगे, लेकिन एआई प्रणालियों की तैनाती में लगी संस्थाओं द्वारा अपनाने की सिफारिश की जाती है:

(i) एक एआई डेटा लाइसेंसिंग समझौता, जो एआई प्रणालियों के प्रशिक्षण, परीक्षण और सत्यापन के लिए उपयोग किए जाने वाले डेटा सेटों के लाइसेंस के लिए नियमों और शर्तों को नियंत्रित करेगा;

(ii) एआई मॉडल लाइसेंसिंग समझौता, जो एआई प्रणालियों के विकास या तैनाती में उपयोग के लिए पूर्व प्रशिक्षित एआई मॉडल या मॉडल घटकों के लाइसेंसिंग को कवर करेगा;

(iii) एक एआई सहयोग समझौता, जो एआई प्रणालियों के विकास या तैनाती में अनुसंधान संस्थानों, कंपनियों या व्यक्तियों जैसे कई पक्षों के बीच सहयोग की सुविधा प्रदान करेगा;

(iv) एक एआई परामर्श समझौता, जो उन नियमों और शर्तों को नियंत्रित करेगा जिनके तहत एक एआई विशेषज्ञ या परामर्श फर्म एआई प्रणालियों के विकास, तैनाती या उपयोग से संबंधित सलाहकार सेवाएं, तकनीकी सहायता या प्रशिक्षण प्रदान करता है;

(v) एआई रखरखाव और समर्थन समझौता, जो एआई प्रणालियों के लिए चल रहे रखरखाव, समर्थन और अद्यतन के लिए नियम और शर्तों को परिभाषित करेगा।

 

(3) अनिवार्य प्रकृति के समझौतों में निम्नलिखित को संबोधित करने वाले प्रावधान शामिल होने चाहिए:

(i) उच्च जोखिम एआई प्रणालियों के रूप में वर्गीकृत एआई प्रणालियों की तैनाती के बाद निगरानी की आवश्यकताएं;

(ii) एआई प्रणाली से संबंधित किसी भी मुद्दे या घटना की स्थिति में घटना रिपोर्टिंग और प्रतिक्रिया के लिए प्रोटोकॉल;

(iii) समझौते की शर्तों या किसी लागू कानून या विनियमन का अनुपालन न करने पर दंड या परिणाम।

 

(4) आईएआईसी इन मार्गदर्शन सिद्धांतों को शामिल करते हुए मॉडल एआई-संबंधित समझौतों को विकसित और प्रकाशित करेगा, जिसमें विभिन्न प्रकार की एआई प्रणालियों से जुड़ी विशिष्ट विशेषताओं और जोखिमों को ध्यान में रखा जाएगा, जैसे:

(i) एआई प्रणाली का अंतर्निहित उद्देश्य, जैसा कि अनुभाग 4 में उल्लिखित वैचारिक वर्गीकरण द्वारा निर्धारित किया गया है;

(ii) एआई प्रणाली की तकनीकी विशेषताएं और सीमाएँ, जैसा कि धारा 5 में निर्दिष्ट है;

(iii) एआई प्रणाली से जुड़े वाणिज्यिक कारक, जैसा कि धारा 6 में रेखांकित किया गया है;

(iv) एआई प्रणाली का जोखिम स्तर, जैसा कि धारा 7 के तहत वर्गीकृत किया गया है।

 

(5) एआई प्रणालियों के विकास, परिनियोजन या उपयोग में लगी संस्थाएं पारदर्शिता, निष्पक्षता और जिम्मेदारी के मूल सिद्धांतों का पालन करते हुए, अपने विशिष्ट संदर्भों और आवश्यकताओं के अनुरूप आईएआईसी द्वारा प्रदान किए गए मॉडल टेम्पलेट्स को अपनाएंगी और अनुकूलित करेंगी।

(6) आईएआईसी कुछ उच्च जोखिम वाले क्षेत्रों, धारा 6 के अनुसार उच्च जोखिम वाले उपयोग मामलों, या संस्थाओं के प्रकारों के लिए मॉडल समझौतों के उपयोग को अनिवार्य कर सकता है, जहां एआई प्रणाली से जुड़े संभावित जोखिम महत्वपूर्ण माने जाते हैं।

(7) मॉडल समझौतों की समय-समय पर समीक्षा की जाएगी और उन्हें अद्यतन किया जाएगा ताकि एआई प्रौद्योगिकियों में प्रगति, सर्वोत्तम प्रथाओं का विकास और कानूनी और नियामक परिदृश्य में परिवर्तन को प्रतिबिंबित किया जा सके।

 

धारा 16 - एआई-संबंधित कॉर्पोरेट प्रशासन के लिए मार्गदर्शन सिद्धांत

(1) अपने शासन संरचनाओं और निर्णय लेने की प्रक्रियाओं में कृत्रिम बुद्धिमत्ता (एआई) तकनीकों, उपकरणों या विधियों के विकास, परिनियोजन और उपयोग में शामिल संस्थाओं को धारा 13 के तहत राष्ट्रीय कृत्रिम बुद्धिमत्ता आचार संहिता के अनुसार निम्नलिखित मार्गदर्शक सिद्धांतों का पालन करना होगा:

(i) जवाबदेही और उत्तरदायित्व:

(क) एआई तकनीकों के उपयोग से संबंधित निर्णयों और कार्यों के लिए स्पष्ट जवाबदेही संगठन के भीतर उपयुक्त नेतृत्व या प्रबंधन द्वारा बनाए रखी जानी चाहिए।

(ख) कॉर्पोरेट प्रशासन के उद्देश्यों के लिए उपयोग की जाने वाली एआई प्रणालियों के विकास, तैनाती और निगरानी से संबंधित भूमिकाएं, जिम्मेदारियां और निरीक्षण तंत्र सौंपने के लिए मजबूत प्रशासन ढांचे की स्थापना की जानी चाहिए।

 

(ii) पारदर्शिता और व्याख्या:

(ए) कॉर्पोरेट निर्णय लेने में सहायता के लिए उपयोग की जाने वाली एआई प्रणालियों को पारदर्शी मॉडल और तकनीकों का उपयोग करना चाहिए जो उनके अंतर्निहित तर्क, डेटा इनपुट और निर्णय तर्कसंगतता की व्याख्या करने में सक्षम हों

(बी) एआई सिस्टम की वास्तुकला, प्रशिक्षण डेटा, प्रदर्शन मेट्रिक्स और संभावित सीमाओं या पूर्वाग्रहों पर व्यापक दस्तावेज बनाए रखा जाना चाहिए

(ग) संस्थाओं द्वारा आंतरिक नीतियां, निर्देश और दिशानिर्देश बनाए जाने चाहिए ताकि प्रभावित हितधारकों को यह पता चल सके कि एआई-संचालित निर्णय कैसे लिए गए और किन कारकों ने उन निर्णयों को प्रभावित किया।

 

(iii) मानव एजेंसी और निरीक्षण:

(क) कॉर्पोरेट प्रशासन में एआई तकनीकों का उपयोग सार्थक मानवीय नियंत्रण, निरीक्षण और आवश्यकता पड़ने पर एआई सिस्टम आउटपुट में हस्तक्षेप करने या उसे ओवरराइड करने की क्षमता के अधीन होना चाहिए।

(ख) उपयुक्त मानवीय समीक्षा तंत्र लागू किया जाना चाहिए, विशेष रूप से कर्मचारियों, शेयरधारकों, ग्राहकों और सार्वजनिक हित सहित सभी प्रासंगिक हितधारकों को प्रभावित करने वाले उच्च-दांव निर्णयों के लिए;

(ग) कंपनी या संगठन की नीतियों में शासन और निर्णय लेने की प्रक्रियाओं में मानव बनाम एआई प्रणालियों की भूमिका और जिम्मेदारियों को स्पष्ट रूप से परिभाषित किया जाना चाहिए;

 

(iv) बौद्धिक संपदा और स्वामित्व संबंधी विचार:

(ए) कॉर्पोरेट संस्थाओं को एआई-जनित सामग्री, आविष्कारों और नवाचारों पर स्वामित्व, विशेषता और बौद्धिक संपदा अधिकारों का निर्धारण करने के लिए स्पष्ट नीतियां और प्रक्रियाएं स्थापित करनी चाहिए।

(ख) इन नीतियों को एआई प्रणालियों के विकास और परिनियोजन में शामिल मानव रचनाकारों, आविष्कारकों और डेवलपर्स के योगदान को मान्यता देनी चाहिए और उनकी रक्षा करनी चाहिए।

(ग) निगमों को बौद्धिक संपदा संरक्षण के माध्यम से नवाचार को प्रोत्साहित करने की आवश्यकता को पारदर्शिता, जवाबदेही और एआई प्रौद्योगिकियों के जिम्मेदार उपयोग के सिद्धांतों के साथ संतुलित करना चाहिए।

 

(v) ओपन सोर्स अपनाने को प्रोत्साहित करना:

(क) कंपनियों और संगठनों को, जहां उपयुक्त हो, एआई प्रणालियों के विकास और परिनियोजन में ओपन-सोर्स सॉफ्टवेयर (ओएसएस) और खुले मानकों का लाभ उठाने के लिए प्रोत्साहित किया जाता है।

(b) ओ.एस.एस. का उपयोग एआई पारिस्थितिकी तंत्र में पारदर्शिता, सहयोग और नवाचार को बढ़ावा दे सकता है, जबकि धारा 13 में उल्लिखित लागू कानूनों, विनियमों और नैतिक सिद्धांतों का अनुपालन सुनिश्चित किया जा सकता है।

(ग) कंपनियों और संगठनों को ओपन-सोर्स एआई समुदायों में योगदान देना चाहिए और भाग लेना चाहिए, ज्ञान साझाकरण और एआई प्रौद्योगिकियों की सामूहिक उन्नति को बढ़ावा देना चाहिए।

 

(2) इन मार्गदर्शन सिद्धांतों के प्रयोजनों के लिए, शासन संरचनाओं और निर्णय लेने की प्रक्रियाओं में कृत्रिम बुद्धिमत्ता (एआई) तकनीक, उपकरण या विधियाँ निम्नलिखित को संदर्भित करेंगी:

(i) एआई प्रणालियाँ जो स्वायत्तता, धारणा, तर्क, अंतःक्रिया, अनुकूलन और रचनात्मकता के माध्यम से मानव निर्णय लेने की क्षमताओं की नकल या प्रतिकृति बनाती हैं, जैसा कि धारा 4 की उप-धारा (5) में वर्णित मानवरूपता-आधारित अवधारणा वर्गीकरण (एबीसीसी) के तहत मूल्यांकन किया गया है;

(ii) एआई प्रणालियाँ जिनके विकास, परिनियोजन और कॉर्पोरेट प्रशासन संरचनाओं के भीतर उपयोग के लिए धारा 4 की उप-धारा (3) के तहत नैतिकता-आधारित अवधारणा वर्गीकरण (ईबीसीसी) के अनुसार संभावित नैतिक जोखिमों और निहितार्थों का मूल्यांकन और शमन आवश्यक है;

(iii) एआई प्रणालियाँ जो व्यक्तिगत अधिकारों जैसे गोपनीयता, उचित प्रक्रिया, गैर-भेदभाव के साथ-साथ सामूहिक अधिकारों को प्रभावित कर सकती हैं, जिसके लिए धारा 4 की उप-धारा (4) में उल्लिखित घटना-आधारित अवधारणा वर्गीकरण (पीबीसीसी) के अनुसार अधिकार-आधारित मूल्यांकन की आवश्यकता होती है;

(iv) बहु स्थिर उपयोग मामलों (जीपीएआईएस) के साथ सामान्य प्रयोजन एआई अनुप्रयोग जो धारा 5 की उप-धारा (2) में निर्दिष्ट तकनीकी वर्गीकरण मानदंडों के अनुसार विभिन्न शासन कार्यों में विश्वसनीय रूप से काम कर सकते हैं;

(v) धारा 5 की उपधारा (4) में वर्णित कारकों के आधार पर विशिष्ट शासन उपयोग मामलों के लिए डिज़ाइन किए गए विशिष्ट प्रयोजन एआई अनुप्रयोग (एसपीएआई);

(vi) व्यापक प्रभाव की संभावना, ऑप्ट-आउट व्यवहार्यता की कमी, भेद्यता कारकों या कॉर्पोरेट प्रशासन प्रक्रियाओं से संबंधित अपरिवर्तनीय परिणामों के कारण धारा 7 की उप-धारा (4) के तहत उच्च जोखिम के रूप में वर्गीकृत एआई प्रणालियाँ;

(vii) धारा 7 की उपधारा (3) के तहत मध्यम जोखिम के रूप में वर्गीकृत एआई प्रणालियाँ जिन्हें पारदर्शिता, व्याख्या और जवाबदेही पहलुओं पर केंद्रित मजबूत शासन ढांचे की आवश्यकता होती है;

(viii) धारा 7 की उपधारा (2) के अंतर्गत संकीर्ण जोखिम के रूप में वर्गीकृत एआई प्रणालियाँ, जहाँ शासन दृष्टिकोण को उनकी तकनीकी सीमाओं और कमजोरियों को ध्यान में रखना चाहिए।

 

(3) धारा 11(3) के तहत प्रमाणन से छूट प्राप्त एआई प्रणालियों के लिए, कंपनियां और संगठन एक लीन गवर्नेंस दृष्टिकोण अपना सकते हैं, जिसमें निम्नलिखित पर ध्यान केंद्रित किया जाएगा:

(i) उच्च जोखिम वाली एआई प्रणालियों पर लागू कठोर आवश्यकताओं के बिना, धारा 19 के अनुसार बुनियादी घटना रिपोर्टिंग और प्रतिक्रिया प्रोटोकॉल स्थापित करना।

(ii) सीमित जोखिम प्रोफाइल को देखते हुए, यथासंभव एआई प्रणालियों का दस्तावेज़ीकरण बनाए रखना और उनकी व्याख्या सुनिश्चित करना।

(iii) एआई प्रणाली के संभावित प्रभाव के अनुरूप, समय-समय पर जोखिम आकलन करना और आवश्यकतानुसार सुधारात्मक उपायों को लागू करना।

 

(4) आईएआईसी कुछ उच्च जोखिम वाले क्षेत्रों, धारा 6 के अनुसार उच्च जोखिम वाले उपयोग मामलों, या संस्थाओं के प्रकारों के लिए इस खंड में उल्लिखित मार्गदर्शन सिद्धांतों के आवेदन को अनिवार्य कर सकता है, जहां एआई प्रणाली से जुड़े संभावित जोखिम महत्वपूर्ण माने जाते हैं।

(5) मार्गदर्शन सिद्धांतों की समय-समय पर समीक्षा की जाएगी और उन्हें अद्यतन किया जाएगा ताकि एआई प्रौद्योगिकियों में प्रगति, सर्वोत्तम प्रथाओं का विकास और कानूनी और नियामक परिदृश्य में परिवर्तन को प्रतिबिंबित किया जा सके।


धारा 17 - उच्च जोखिम वाली एआई प्रणालियों की तैनाती के बाद निगरानी

(1) धारा 7 की उपधारा (4) में वर्गीकृत उच्च जोखिम वाली एआई प्रणालियाँ उनकी सुरक्षा, संरक्षा, विश्वसनीयता, पारदर्शिता और जवाबदेही सुनिश्चित करने के लिए उनके पूरे जीवनचक्र के दौरान निरंतर निगरानी और मूल्यांकन के अधीन होंगी।

(2) तैनाती के बाद की निगरानी, ​​उच्च जोखिम वाली एआई प्रणालियों के प्रदाताओं, तैनातीकर्ताओं या उपयोगकर्ताओं द्वारा, आईएआईसी द्वारा स्थापित दिशानिर्देशों के अनुसार, उपयुक्त रूप से की जाएगी।

(3) आईएआईसी उच्च जोखिम वाली एआई प्रणालियों की तैनाती के बाद निगरानी के लिए व्यापक दिशानिर्देश विकसित और स्थापित करेगा, जिसमें निम्नलिखित शामिल हो सकते हैं, लेकिन इन्हीं तक सीमित नहीं होंगे:

(i) संभावित जोखिमों की पहचान और मूल्यांकन, जिसमें शामिल हैं:

(ए) प्रदर्शन विचलन,

(बी) खराबी,

(ग) अनपेक्षित परिणाम,

(घ) सुरक्षा कमज़ोरियाँ, और

(ई) डेटा उल्लंघन;

 

(ii) जोखिम शमन उपायों की प्रभावशीलता का मूल्यांकन और आवश्यक अद्यतन, सुधार या उपचारात्मक कार्रवाइयों का कार्यान्वयन;

(iii) वास्तविक दुनिया की प्रतिक्रिया और विकसित हो रही सर्वोत्तम प्रथाओं के आधार पर एआई प्रणाली के प्रदर्शन, विश्वसनीयता और भरोसेमंदता में निरंतर सुधार; तथा

(iv) तैनाती के बाद की निगरानी के परिणामस्वरूप प्राप्त निष्कर्षों और की गई कार्रवाइयों के बारे में IAIC को नियमित रूप से रिपोर्ट करना, जिसमें पहचानी गई कोई भी घटना, खराबी या प्रतिकूल प्रभाव, तथा उन्हें संबोधित करने के लिए कार्यान्वित किए गए उपाय शामिल हैं।

 

(4) आईएआईसी द्वारा सुगम तैनाती के बाद की निगरानी में प्रदाताओं, तैनातीकर्ताओं, उपयोगकर्ताओं और क्षेत्र-विशिष्ट नियामक प्राधिकरणों के बीच सहयोग और समन्वय शामिल होगा, ताकि एआई प्रणाली की निगरानी के लिए एक व्यापक और समावेशी दृष्टिकोण सुनिश्चित किया जा सके।

(5) आईएआईसी उच्च जोखिम वाली एआई प्रणालियों की तैनाती के बाद की निगरानी गतिविधियों की स्वतंत्र ऑडिटिंग और सत्यापन के लिए तंत्र स्थापित करेगा, जैसा कि धारा 12 के तहत पंजीकरण और प्रमाणन मेटाडेटा आवश्यकताओं में निर्दिष्ट है। यह निम्नलिखित के माध्यम से ऐसी एआई प्रणालियों के शासन में पारदर्शिता, जवाबदेही और सार्वजनिक विश्वास सुनिश्चित करेगा:

(i) प्रदाताओं द्वारा उनके उच्च जोखिम वाले एआई सिस्टम के लिए कार्यान्वित निगरानी प्रोटोकॉल, प्रदर्शन मेट्रिक्स, जोखिम शमन उपायों और मानव निरीक्षण तंत्र पर अनिवार्य दस्तावेजीकरण और रिपोर्टिंग;

(ii) प्रमाणन मानदंडों के विरुद्ध रिपोर्ट की गई जानकारी की सटीकता और पूर्णता को मान्य करने के लिए मान्यता प्राप्त तृतीय-पक्ष लेखा परीक्षकों द्वारा आवधिक ऑडिट;

(iii) गोपनीय व्यावसायिक जानकारी की उचित सुरक्षा के अधीन, लेखापरीक्षित निगरानी रिपोर्टों और प्रमुख निष्पादन संकेतकों का सार्वजनिक प्रकटीकरण;

(iv) प्रासंगिक हितधारकों और प्रभावित समुदायों के लिए तैनात उच्च जोखिम वाली एआई प्रणालियों के वास्तविक-विश्व प्रभावों के संबंध में फीडबैक और चिंताएं प्रस्तुत करने हेतु सक्षम तंत्र बनाना।

(6) आईएआईसी द्वारा स्थापित तैनाती के बाद की निगरानी आवश्यकताओं और दिशानिर्देशों का पालन करने में विफलता के परिणामस्वरूप आईएआईसी द्वारा निर्धारित दंड लगाया जा सकता है।ts and guidelines established by the IAIC may result in penalties as may be prescribed by the IAIC.

अध्याय VI

अध्याय VII: रिपोर्टिंग और साझाकरण


धारा 18 - तृतीय-पक्ष भेद्यता रिपोर्टिंग

(1) आईएआईसी एआई सिस्टम से जुड़े जोखिमों की तीसरे पक्ष द्वारा भेद्यता रिपोर्टिंग के लिए एक सुरक्षित और सुलभ डिजिटल प्लेटफॉर्म स्थापित करेगा। यह प्लेटफॉर्म व्यक्तियों और संगठनों को बिना किसी डर या दबाव के गुमनाम रूप से भेद्यता की रिपोर्ट करने की अनुमति देगा।

(2) आईएआईसी रिपोर्ट की गई कमज़ोरियों की तुरंत समीक्षा और आकलन करने के लिए एक कमज़ोरी प्रतिक्रिया टीम स्थापित करेगा। इस टीम के पास कमज़ोरियों की जाँच करने, उनकी गंभीरता निर्धारित करने और शमन रणनीतियाँ विकसित करने के लिए विशेषज्ञता और संसाधन होंगे।

(3) आईएआईसी प्रभावित पक्षों को पहचानी गई कमज़ोरियों के बारे में सूचित करने और शमन प्रयासों के समन्वय के लिए एक संचार प्रोटोकॉल स्थापित करेगा। यह प्रोटोकॉल सुनिश्चित करेगा कि कमज़ोरियों को समय पर और प्रभावी तरीके से संबोधित किया जाए।

धारा 19 - घटना रिपोर्टिंग और शमन प्रोटोकॉल

(1) एआई प्रणालियों के सभी डेवलपर्स, ऑपरेटर और उपयोगकर्ता ऐसी एआई प्रणालियों से संबंधित घटनाओं की रिपोर्टिंग के लिए तंत्र स्थापित करेंगे।

(2) घटना रिपोर्टिंग तंत्र आसानी से सुलभ, उपयोगकर्ता के अनुकूल और सुरक्षित होना चाहिए, जैसे कि एक समर्पित हॉटलाइन, ऑनलाइन पोर्टल या ईमेल पता।

(3) उच्च जोखिम वाली एआई प्रणालियों से जुड़ी घटनाओं को प्राथमिकता के रूप में माना जाएगा और तुरंत रिपोर्ट किया जाएगा, लेकिन घटना के बारे में पता चलने के 48 घंटे से अधिक समय नहीं लगेगा।

(4) अन्य एआई प्रणालियों के लिए, ऐसी घटनाओं की जानकारी होने के 7 दिनों के भीतर रिपोर्ट की जानी चाहिए।

(5) सभी घटना रिपोर्ट आईएआईसी द्वारा स्थापित और अनुरक्षित केंद्रीय भंडार को प्रस्तुत की जाएंगी।

(6) आईएआईसी प्रवृत्तियों, संभावित जोखिमों की पहचान करने और शमन रणनीतियों को विकसित करने के लिए इस भंडार से घटना डेटा एकत्र, विश्लेषण और साझा करेगा।

(7) आईएआईसी घटना रिपोर्टिंग आवश्यकताओं पर दिशानिर्देश प्रकाशित करेगा, जिसमें शामिल हैं:

(i) घटना की गंभीरता निर्धारित करने के मानदंड:

(ए) गंभीर: उच्च जोखिम वाली एआई प्रणालियों से जुड़ी घटनाएं जो मानव जीवन, सुरक्षा या मौलिक अधिकारों के लिए खतरा पैदा करती हैं;

(ख) उच्च: महत्वपूर्ण क्षति, व्यवधान या वित्तीय हानि का कारण बनने वाली घटनाएँ;

(ग) मध्यम: मध्यम प्रभाव वाली या जोखिम वृद्धि की क्षमता वाली घटनाएँ;

(घ) कम: न्यूनतम प्रभाव वाली घटनाएँ।

 

(ii) घटना रिपोर्ट में दी जाने वाली जानकारी:

(क) घटना और उसके प्रभाव का विस्तृत विवरण;

(बी) एआई प्रणाली का विवरण (प्रकार, उपयोग मामला, जोखिम स्तर, तैनाती चरण);

(ग) उच्च जोखिम वाली एआई प्रणालियों के लिए: मूल कारण विश्लेषण, शमन क्रियाएं और सहायक डेटा।

 

(iii) रिपोर्टिंग के लिए समयसीमा और प्रक्रिया:

(ए) उच्च जोखिम वाली एआई प्रणालियों से संबंधित गंभीर घटनाओं की रिपोर्ट 48 घंटों के भीतर की जानी चाहिए;

(बी) यदि उच्च जोखिम वाली एआई प्रणालियाँ शामिल हैं तो उच्च या मध्यम गंभीरता की घटनाओं की रिपोर्ट 7 दिनों के भीतर की जानी चाहिए, और अन्य सभी प्रणालियों के लिए 14 दिनों के भीतर;

(ग) कम गंभीरता वाली घटनाओं की मासिक रिपोर्ट दी जानी चाहिए।

 

(iv) घटना संबंधी आंकड़ों के लिए गोपनीयता उपाय:

(ए) सभी एआई प्रणालियों को यह सुनिश्चित करना होगा:

· विश्राम एवं पारगमन के दौरान डेटा एन्क्रिप्शन;

· घटना डेटा के लिए भूमिका-आधारित पहुँच नियंत्रण;

· सभी डेटा एक्सेस का ऑडिट लॉग बनाए रखना;

· डेटा संचरण के लिए सुरक्षित संचार चैनल;

· साइबर और डेटा सुरक्षा ढांचे के तहत आवश्यकताओं के अनुसार डेटा को बनाए रखना;

· डेटा गोपनीयता पर नियमित जोखिम आकलन;

· डेटा संरक्षण और प्रबंधन पर कर्मचारी प्रशिक्षण।

 

(बी) सभी उच्च जोखिम वाली एआई प्रणालियों को यह सुनिश्चित करना होगा:

· उचित एन्क्रिप्शन कुंजी प्रबंधन प्रथाएँ;

· घटना डेटा के साथ हटाने योग्य मीडिया के लिए एन्क्रिप्शन;

· डेटा एक्सेस के लिए बहु-कारक प्रमाणीकरण;

· डेटा भंडारण के लिए भौतिक सुरक्षा नियंत्रण;

· व्यक्तिगत जानकारी को संपादित करना/गुमनाम करना;

· सुरक्षित डेटा निपटान तंत्र;

· गोपनीयता पर आवधिक बाह्य ऑडिट;

· उल्लंघन के लिए अनुशासनात्मक कार्रवाई।

 

(ग) निम्न जोखिम वाली एआई प्रणालियों के लिए निम्नलिखित उपाय वैकल्पिक हैं:

· प्रमुख प्रबंधन प्रथाएँ (अनुशंसित);

· हटाने योग्य मीडिया एन्क्रिप्शन (आवश्यकतानुसार);

· बहु-कारक प्रमाणीकरण (अनुशंसित);

· भौतिक नियंत्रण (डेटा संवेदनशीलता पर आधारित);

· व्यक्तिगत डेटा संशोधन (जैसा लागू हो);

· सुरक्षित निपटान तंत्र (अनुशंसित)।

 

(8) सभी एआई सिस्टम डेवलपर्स, ऑपरेटर और उपयोगकर्ता किसी घटना के बारे में पता चलने पर निम्नलिखित न्यूनतम शमन कार्रवाई को लागू करेंगे:

(i) आईएआईसी दिशानिर्देशों के आधार पर घटना की गंभीरता का आकलन करना;

(ii) घटना को अलगाव, अक्षम करने वाले कार्यों या अन्य उपायों के माध्यम से रोकना;

(iii) घटना के मूल कारण की जांच करना;

(iv) अद्यतन, सुरक्षा संवर्द्धन या कार्मिक प्रशिक्षण के माध्यम से घटना का निवारण करना;

(v) प्रभावित पक्षों को घटना का विवरण और निवारण कार्रवाई की जानकारी देना;

(vi) आंतरिक घटना प्रतिक्रिया प्रक्रियाओं की समीक्षा और सुधार करना।

 

(9) धारा 11 की उपधारा (3) के अंतर्गत प्रमाणन से छूट प्राप्त एआई प्रणालियों के लिए, घटना रिपोर्टिंग और प्रतिक्रिया प्रोटोकॉल के संबंध में निम्नलिखित दिशानिर्देश लागू होंगे:

(i) स्वैच्छिक घटना रिपोर्टिंग: छूट प्राप्त एआई प्रणालियों के डेवलपर्स, ऑपरेटरों और उपयोगकर्ताओं को ऐसी प्रणालियों से संबंधित घटना रिपोर्टिंग के लिए तंत्र स्थापित करने के लिए प्रोत्साहित किया जाता है, लेकिन यह अनिवार्य रूप से आवश्यक नहीं है।

(ii) उच्च/गंभीर घटना पर ध्यान: ऐसे मामलों में जहां घटना रिपोर्टिंग तंत्र स्थापित किए गए हैं, ध्यान उच्च गंभीरता या गंभीर घटनाओं की रिपोर्टिंग पर होगा जो नुकसान या प्रतिकूल प्रभाव की स्पष्ट संभावना रखते हैं।

(iii) उचित समयसीमा: छूट प्राप्त एआई प्रणालियों से जुड़ी उच्च/गंभीर घटनाओं के लिए, डेवलपर्स को घटना की जानकारी होने से 14-30 दिनों की उचित समयसीमा के भीतर आईएआईसी को ऐसी घटनाओं की रिपोर्ट करनी होगी।

(iv) घटना का विवरण: छूट प्राप्त एआई प्रणालियों के लिए घटना रिपोर्ट में मुख्य रूप से घटना का विवरण, इसकी कथित गंभीरता और प्रभाव, और स्वयं एआई प्रणाली के बारे में विवरण (प्रकार, उपयोग का मामला, जोखिम वर्गीकरण) शामिल होगा।

(v) गोपनीयता उपाय: छूट प्राप्त एआई प्रणालियों के डेवलपर्स को घटना डेटा के लिए गोपनीयता उपायों को लागू करना होगा जो डेटा संवेदनशीलता और संभावित जोखिमों के अनुपात में हों।

(vi) समन्वित प्रकटीकरण: आईएआईसी छूट प्राप्त एआई प्रणालियों से संबंधित कमजोरियों या घटनाओं की जिम्मेदार रिपोर्टिंग और उपचार की सुविधा के लिए समन्वित प्रकटीकरण कार्यक्रम स्थापित करेगा।

(vii) ज्ञान साझा करना: आईएआईसी छूट प्राप्त एआई प्रणालियों से संबंधित रिपोर्ट की गई घटनाओं का ज्ञान आधार बनाए रखेगा और सीखने को बढ़ावा देने और घटना प्रतिक्रिया प्रथाओं में सुधार करने के लिए अनाम जानकारी साझा करेगा।

 

(10) आईएआईसी उच्च जोखिम वाली एआई घटनाओं को प्राथमिकता देते हुए प्रभावी घटना शमन के लिए अनुरोध पर एआई संस्थाओं को समर्थन और संसाधन उपलब्ध कराएगा।

(11) आईएआईसी को इस अधिनियम के प्रावधानों के अनुसार एआई संस्थाओं का ऑडिट करने और इस धारा का अनुपालन न करने पर जुर्माना लगाने की शक्ति होगी।

 

धारा 20 - जिम्मेदार सूचना साझा करना

(1) एआई प्रणालियों के डेवलपर्स, ऑपरेटरों और उपयोगकर्ताओं को जिम्मेदार और नैतिक तरीके से जानकारी साझा करनी चाहिए, जिसमें यह सुनिश्चित करना शामिल है कि जानकारी सटीक, पूर्ण और साझा करने के उद्देश्य के लिए प्रासंगिक है।

(2) सूचना साझाकरण पारदर्शी, सत्यापन योग्य होना चाहिए, और गोपनीयता और डेटा सुरक्षा की रक्षा के लिए उचित सुरक्षा उपायों के अधीन होना चाहिए, जिसमें उन डेटा प्रिंसिपलों से सूचित सहमति प्राप्त करना शामिल है जिनका डेटा साझा किया जा रहा है।

(3) डेटा न्यासियों और तीसरे पक्ष की कंपनियों को कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के उपयोग, विकास और व्यावसायीकरण से जुड़े किसी भी समझौते में सूचना साझा करने के लिए जिम्मेदार एआई सिस्टम के डेवलपर्स, ऑपरेटरों और उपयोगकर्ताओं पर लागू सामान्य प्रथाओं का एक सेट वर्णित करना होगा।

(4) आईएआईसी कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के संदर्भ में जिम्मेदार सूचना साझा करने के लिए क्षेत्र-तटस्थ दिशानिर्देश विकसित करेगा, जिन्हें क्षेत्र-विशिष्ट डेटा विनियमों, परिपत्रों और दिशानिर्देशों द्वारा प्रतिस्थापित किया जा सकता है।

अध्याय VII

अध्याय VIII: बौद्धिक संपदा और मानक

 

धारा 21 - बौद्धिक संपदा संरक्षण

(1) कृत्रिम बुद्धिमत्ता प्रणालियों के विकास और उपयोग द्वारा प्रस्तुत अद्वितीय चुनौतियों और अवसरों की पहचान करते हुए, एआई प्रणालियों को मौजूदा बौद्धिक संपदा (आईपी) अधिकारों, जैसे कॉपीराइट, पेटेंट और डिजाइन अधिकारों के संयोजन के माध्यम से संरक्षित किया जाना चाहिए, साथ ही साथ नई और विकसित आईपी अवधारणाएं विशेष रूप से एआई प्रणालियों के स्थानिक पहलुओं को संबोधित करने के लिए तैयार की गई हैं।

 

(2) इस खंड के प्रयोजनों के लिए, “एआई प्रणालियों के स्थानिक पहलू” एआई प्रौद्योगिकियों की अद्वितीय क्षमताओं को संदर्भित करेंगे, जिनमें निम्नलिखित शामिल हैं, लेकिन इन्हीं तक सीमित नहीं हैं:

(i) बदलते इनपुट, वातावरण और अंतःक्रियाओं के आधार पर गतिशील रूप से अनुकूलन और नवीन आउटपुट उत्पन्न करना;

(ii) निर्णय लेने, कार्य निष्पादन और स्व-शिक्षण में स्वायत्तता के विभिन्न स्तरों के साथ कार्य करना;

(iii) विभिन्न स्थानिक, लौकिक और प्रासंगिक स्रोतों से डेटा को एकीकृत करना और उसका विश्लेषण करना;

(iv) स्थानिक कंप्यूटिंग प्रौद्योगिकियों का लाभ उठाते हुए नवीन अनुप्रयोगों, सेवाओं और अनुभवों को सक्षम बनाना।

 

(3) मौजूदा बौद्धिक संपदा अधिकारों का संयोजन प्रदान करने के उद्देश्य हैं:

(i) एआई डेवलपर्स के लिए उनकी रचनाओं, आविष्कारों और उत्पन्न आउटपुट पर लागू करने योग्य अधिकारों को सुरक्षित करके नवाचार को प्रोत्साहित करना;

(ii) यह सुनिश्चित करके अंतर-संचालन क्षमता को बढ़ाना कि संविदात्मक व्यवस्थाएं प्रतिबंधात्मक आईपी शर्तों के कारण अनावश्यक रूप से बाधित न हों;

(iii) भारत में विकसित एआई-संबंधित आईपी परिसंपत्तियों के अनधिकृत दोहन को रोककर निष्पक्ष प्रतिस्पर्धा को बढ़ावा देना;

(iv) डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 और अन्य डेटा संरक्षण ढांचे के तहत प्रावधानों के साथ आईपी सुरक्षा को संरेखित करके व्यक्तिगत गोपनीयता और डेटा अधिकारों की रक्षा करना।

 

(4) आईएआईसी प्रासंगिक आईपी प्राधिकरणों और हितधारकों के साथ सहयोग में परामर्श तंत्र स्थापित करेगा, ताकि एआई प्रणालियों से संबंधित बौद्धिक संपदा अधिकारों की पहचान, संरक्षण और प्रवर्तन के लिए एक व्यापक ढांचा विकसित किया जा सके, जिसमें शामिल हैं:

(i) एआई प्रणालियों और उनके स्थानिक पहलुओं के लिए संयुक्त आईपी सुरक्षा के दायरे और सीमाओं को परिभाषित करना;

(ii) मौजूदा आईपी कानूनों और अंतर्राष्ट्रीय संधियों के साथ ऐसी सुरक्षा की अनुकूलता का आकलन करना;

(iii) एआई प्रणालियों के बीच निर्बाध एकीकरण और डेटा विनिमय को सक्षम करने के लिए अंतर-संचालनीयता संबंधी विचारों को संबोधित करना;

(iv) कॉपीराइट कार्यों या पेटेंट किए गए आविष्कारों के आधार पर सामग्री को संसाधित करने, सीखने और उत्पन्न करने की एआई प्रणालियों की क्षमता के आईपी निहितार्थों की जांच करना;

(v) एआई-जनित सामग्री और नवाचारों के लेखकत्व, आविष्कारकत्व और स्वामित्व का निर्धारण करने के लिए दिशानिर्देश विकसित करना;

(vi) एआई-संबंधित आईपी परिसंपत्तियों के अधिकार प्रबंधन, लाइसेंसिंग और व्यावसायीकरण के लिए प्रोटोकॉल स्थापित करना।

 

(5) एआई प्रणालियों में ओपन-सोर्स सॉफ्टवेयर का उपयोग संबंधित ओपन-सोर्स लाइसेंस के नियमों और शर्तों के अधीन होगा, जिसमें आईएआईसी ऐसे लाइसेंसों और एआई प्रणालियों के लिए आईपी सुरक्षा ढांचे के बीच संगतता पर मार्गदर्शन प्रदान करेगा।

(6) आईएआईसी समय-समय पर एआई प्रौद्योगिकियों में प्रगति, कानूनी और नियामक परिदृश्यों को विकसित करने और एआई और स्थानिक कंप्यूटिंग के क्षेत्र में उभरती सर्वोत्तम प्रथाओं को समायोजित करने के लिए आईपी सुरक्षा ढांचे की समीक्षा और अद्यतन करेगा।


अध्याय IX: क्षेत्र-तटस्थ और क्षेत्र-विशिष्ट मानक


धारा 22 - साझा क्षेत्र-तटस्थ और क्षेत्र-विशिष्ट मानक

(1) आईएआईसी एआई प्रणालियों के जिम्मेदार विकास, तैनाती और उपयोग के लिए निम्नलिखित क्षेत्र-तटस्थ मानकों के कार्यान्वयन और समीक्षा का समन्वय करेगा:

(i) उप-धारा (2), (3) और (4) में उल्लिखित दायित्व के मूल सिद्धांत;

 

(2) एआई प्रणाली द्वारा होने वाली हानि या क्षति के लिए उत्तरदायित्व निम्नलिखित सिद्धांतों के आधार पर आवंटित किया जाएगा:

(i) वह पक्ष जिसने एआई प्रणाली को विकसित, तैनात या संचालित किया है, वह संकल्पनात्मक, तकनीकी, वाणिज्यिक और जोखिम-आधारित विधियों के तहत प्रणाली के वर्गीकरण को ध्यान में रखते हुए, प्रणाली द्वारा होने वाली किसी भी हानि या क्षति के लिए प्राथमिक रूप से उत्तरदायी होगा।

(ii) एआई प्रणाली के जीवनचक्र में शामिल कई पक्षों के बीच दायित्व साझा किया जा सकता है, जो उनकी संबंधित भूमिकाओं और जिम्मेदारियों के साथ-साथ धारा 8 और 9 के तहत प्रणाली के वर्गीकरण और संबंधित आवश्यकताओं पर आधारित होगा।

(iii) अंतिम उपयोगकर्ताओं को एआई प्रणाली के कारण होने वाली हानि या क्षति के लिए उत्तरदायी नहीं ठहराया जाएगा, जब तक कि उन्होंने जानबूझकर प्रणाली का दुरुपयोग या छेड़छाड़ नहीं की हो, या प्रणाली के वर्गीकरण के आधार पर निर्दिष्ट उपयोगकर्ता दायित्वों का पालन करने में विफल नहीं हुए हों।

 

(3) एआई प्रणालियों से होने वाले नुकसान के लिए उत्तरदायित्व निर्धारित करने और निर्णय लेने के लिए निम्नलिखित कारकों पर विचार किया जाएगा:

(i) धारा 4(2) के तहत इश्यू-टू-इश्यू कॉन्सेप्ट क्लासिफिकेशन (आईआईसीसी) द्वारा पहचाने गए एआई सिस्टम के इच्छित उद्देश्य के मद्देनजर नुकसान की पूर्वानुमानशीलता, धारा 5 के तहत तकनीकी वर्गीकरण में निर्दिष्ट इसकी क्षमताएं और धारा 7 के तहत जोखिम वर्गीकरण के अनुसार इसकी सीमाएं;

(ii) धारा 7 के तहत जोखिम वर्गीकरण से जुड़ी मानवीय निगरानी और जवाबदेही आवश्यकताओं पर विचार करते हुए एआई प्रणाली पर नियंत्रण की डिग्री, विशेष रूप से धारा 13 में उल्लिखित मानव एजेंसी और निरीक्षण के सिद्धांत;

 

(4) एआई सिस्टम के डेवलपर्स और ऑपरेटरों को अपने एआई सिस्टम से होने वाले संभावित नुकसान या क्षति को कवर करने के लिए देयता बीमा प्राप्त करना आवश्यक होगा। बीमा कवरेज एआई सिस्टम के जोखिम स्तरों और संभावित प्रभावों के अनुपात में होगा, जैसा कि धारा 7 में जोखिम वर्गीकरण ढांचे के तहत निर्धारित किया गया है, और धारा 9 में उल्लिखित उच्च जोखिम वाली एआई सिस्टम के लिए संबंधित आवश्यकताएं हैं। यह बीमा पॉलिसी यह सुनिश्चित करेगी कि ऐसे मामलों में प्रभावित व्यक्तियों या संस्थाओं को मुआवजा उपलब्ध हो, जहां देयता किसी विशिष्ट पक्ष को नहीं दी जा सकती है।

 

(5) आईएआईसी निम्नलिखित सिद्धांतों के आधार पर क्षेत्र-विशिष्ट संदर्भों में एआई प्रणालियों के जिम्मेदार विकास, तैनाती और उपयोग के लिए क्षेत्र-विशिष्ट नियामकों के बीच समन्वय को सक्षम करेगा:

(i) पारदर्शिता और व्याख्या:

(क) एआई प्रणालियों को पारदर्शी तरीके से डिजाइन और विकसित किया जाना चाहिए, जिससे उपयोगकर्ताओं को यह समझने में मदद मिले कि वे कैसे काम करते हैं और निर्णय कैसे लिए जाते हैं।

(b) एआई प्रणालियों को अपने निर्णयों को स्पष्ट और संक्षिप्त तरीके से समझाने में सक्षम होना चाहिए, जिससे उपयोगकर्ताओं को उनके आउटपुट के पीछे के तर्क को समझने में मदद मिल सके।

(ग) डेवलपर्स को एआई प्रणाली की क्षमताओं, सीमाओं और संभावित जोखिमों को समझाने वाले स्पष्ट दस्तावेज और उपयोगकर्ता मार्गदर्शिकाएँ प्रदान करनी चाहिए।

(घ) आवश्यक पारदर्शिता और स्पष्टीकरण का स्तर एआई प्रणाली के जोखिम वर्गीकरण और इच्छित उपयोग के आधार पर भिन्न हो सकता है।

 

(ii) निष्पक्षता और पूर्वाग्रह:

(क) तकनीकी पूर्वाग्रह और भेदभाव के लिए एआई प्रणालियों की नियमित रूप से निगरानी की जानी चाहिए, और सामाजिक-तकनीकी संदर्भ में किसी भी पहचाने गए मुद्दों को हल करने के लिए उचित शमन उपायों को लागू किया जाना चाहिए।

(ख) डेवलपर्स को यह सुनिश्चित करना चाहिए कि प्रशिक्षण डेटा विविधतापूर्ण, प्रतिनिधिक और पूर्वाग्रहों से मुक्त हो, जो भेदभावपूर्ण परिणामों को जन्म दे सकता है।

(ग) एआई प्रणाली के जीवनचक्र के दौरान किसी भी उभरते पूर्वाग्रह की पहचान करने और उसे सुधारने के लिए निरंतर ऑडिट और मूल्यांकन किए जाने चाहिए।

 

(iii) सुरक्षा एवं संरक्षा:

(ए) एआई प्रणालियों को डिजाइन और डिफ़ॉल्ट द्वारा सुरक्षा और सुरक्षा के साथ डिजाइन और विकसित किया जाना चाहिए।

(ख) एआई प्रणालियों को अनधिकृत पहुंच, संशोधन या विनाश से बचाया जाना चाहिए।

(ग) डेवलपर्स को एआई सिस्टम और उनके डेटा की सुरक्षा के लिए एन्क्रिप्शन, एक्सेस कंट्रोल और सुरक्षित संचार प्रोटोकॉल जैसे मजबूत सुरक्षा उपायों को लागू करना चाहिए।

(घ) एआई प्रणालियों को कठोर परीक्षण और सत्यापन से गुजरना चाहिए ताकि यह सुनिश्चित किया जा सके कि वे सामान्य और अप्रत्याशित परिस्थितियों में सुरक्षित और विश्वसनीय तरीके से कार्य करें।

(ई) डेवलपर्स को किसी भी सुरक्षा या सुरक्षा उल्लंघन को तुरंत संबोधित करने के लिए घटना प्रतिक्रिया योजनाएं और तंत्र स्थापित करना चाहिए।

 

(iv) मानव नियंत्रण और निरीक्षण:

(क) एआई प्रणालियों को मानवीय नियंत्रण और निरीक्षण के अधीन होना चाहिए ताकि यह सुनिश्चित किया जा सके कि उनका उपयोग जिम्मेदारी से किया जाए।

(ख) यदि आवश्यक हो तो एआई प्रणालियों के संचालन में डेटा प्रिंसिपलों के हस्तक्षेप के लिए तंत्र मौजूद होना चाहिए।

(ग) डेवलपर्स को मानव-इन-द-लूप या मानव-ऑन-द-लूप दृष्टिकोण को लागू करना चाहिए, जिससे महत्वपूर्ण या उच्च जोखिम वाले परिदृश्यों में मानवीय हस्तक्षेप और अंतिम निर्णय लेने की अनुमति मिल सके।

(घ) जब एआई प्रणालियां अपने डिजाइन किए गए दायरे से परे स्थितियों का सामना करती हैं या जब अप्रत्याशित परिणाम सामने आते हैं, तो मानव ऑपरेटरों को निर्णय लेने के लिए स्पष्ट प्रोटोकॉल स्थापित किए जाने चाहिए।

(ई) यह सुनिश्चित करने के लिए कि एआई प्रणालियाँ अपेक्षित रूप से कार्य कर रही हैं तथा मानवीय मूल्यों और सामाजिक मानदंडों के अनुरूप हैं, नियमित मानवीय ऑडिट और समीक्षा की जानी चाहिए।

 

(ii) ओपन सोर्स और अंतर-संचालनिकता:

(ए) एआई प्रणालियों के लिए साझा क्षेत्र-तटस्थ मानकों का विकास अंतर-संचालन, पारदर्शिता और सहयोग को बढ़ावा देने के लिए ओपन सोर्स सॉफ्टवेयर और खुले मानकों का लाभ उठाएगा।

(ख) आईएआईसी एआई मानकों के विकास में ओपन सोर्स समुदायों और हितधारकों की भागीदारी को प्रोत्साहित करेगा।

(ग) डेवलपर्स को पारदर्शिता, पुन: प्रयोज्यता और नवाचार को सुविधाजनक बनाने के लिए एआई सिस्टम का निर्माण करते समय ओपन सोर्स घटकों और फ्रेमवर्क का उपयोग करने का प्रयास करना चाहिए।

(घ) एआई प्रणालियों को अंतर-संचालनीयता को ध्यान में रखते हुए डिजाइन किया जाना चाहिए, तथा विभिन्न प्लेटफार्मों और डोमेनों में निर्बाध एकीकरण और डेटा विनिमय को सक्षम करने के लिए सामान्य डेटा प्रारूपों, प्रोटोकॉल और एपीआई का पालन किया जाना चाहिए।

(ई) आईएआईसी पारदर्शी रूप से एआई प्रणालियों के प्रदर्शन का आकलन और तुलना करने के लिए खुले बेंचमार्क, डेटासेट और मूल्यांकन ढांचे के विकास को बढ़ावा देगा।


अध्याय VIII & IX

अध्याय X: सामग्री उद्गम


धारा 23 - सामग्री की उत्पत्ति और पहचान

(1) एआई सिस्टम जो सामग्री उत्पन्न या हेरफेर करते हैं, उन्हें ऐसी सामग्री के स्रोत की पहचान करने और उसके मूल के रिकॉर्ड बनाए रखने के लिए तंत्र लागू करना चाहिए। इन तंत्रों में मानवीय निगरानी और तकनीकी तरीके दोनों शामिल होंगे;

 

(2) एआई-जनित सामग्री पर नज़र रखने की जवाबदेही एआई प्रणाली के विशिष्ट उपयोग मामलों द्वारा निर्धारित की जाएगी, जैसे कि:

 

(i) धारा 7(4) के तहत उच्च जोखिम के रूप में वर्गीकृत एआई प्रणालियों के लिए, जवाबदेही विशिष्ट उपयोग मामलों से आगे बढ़कर एआई प्रणाली के सभी तकनीकी घटकों को शामिल करेगी;

 

(ii) धारा 11 की उपधारा (3) के तहत छूट प्राप्त एआई प्रणालियों के लिए, एआई-जनरेटेड सामग्री को ट्रैक करने की जवाबदेही प्रणाली के जोखिम प्रोफाइल और संभावित प्रभाव के अनुपात में होगी। यह प्रदाताओं और उपयोगकर्ताओं या परीक्षकों के बीच जिम्मेदार प्रकटीकरण और समन्वित शमन पर ध्यान केंद्रित करेगा;

 

(iii) एआई प्रणालियों के अंतिम उपयोगकर्ताओं और व्यावसायिक अंतिम उपयोगकर्ताओं के लिए, एआई-जनित सामग्री के लिए जवाबदेही और संभावित देयता की जांच निम्नलिखित कारकों के आधार पर की जाएगी:

(क) क्या उन्होंने जानबूझकर दिशानिर्देशों के विपरीत एआई प्रणाली का दुरुपयोग या छेड़छाड़ की;

(ख) क्या वे एआई प्रणाली के उपयोग में उचित सावधानी और उचित परिश्रम करने में विफल रहे;

(ग) क्या उन्होंने जानबूझकर एआई-जनरेटेड सामग्री का प्रचार या प्रसार किया जो नुकसान पहुंचा सकती है;

 

(3) धारा 7 की उपधारा (4) के तहत उच्च जोखिम के रूप में वर्गीकृत एआई सिस्टम के डेवलपर्स, मालिक और संचालक जो सामग्री बनाने या उसमें हेरफेर करने में शामिल हैं, उन्हें पर्याप्त देयता बीमा कवरेज प्राप्त करना और बनाए रखना आवश्यक होगा। बीमा कवरेज में निम्नलिखित शामिल होना चाहिए, लेकिन यह इन तक ही सीमित नहीं है:

(i) गलत, अनुचित या अपमानजनक एआई-जनित सामग्री से जुड़ी घटनाओं को कवर करने के लिए व्यावसायिक क्षतिपूर्ति बीमा;

(ii) डेटा उल्लंघनों, नेटवर्क सुरक्षा विफलताओं या एआई-जनरेटेड सामग्री से संबंधित अन्य साइबर घटनाओं से संबंधित घटनाओं को कवर करने के लिए साइबर जोखिम बीमा;

(iii) सामान्य वाणिज्यिक देयता बीमा, जो तीसरे पक्ष को चोट, क्षति या एआई-जनित सामग्री से संबंधित अन्य कानूनी रूप से उत्तरदायी परिदृश्यों का कारण बनने वाली घटनाओं को कवर करता है।

 

(4) बीमा कवरेज उच्च जोखिम वाली एआई प्रणाली के जोखिम स्तर और संभावित प्रभावों के अनुपात में होगा, जैसा कि निम्नलिखित द्वारा निर्धारित किया जाएगा:

(i) धारा 4 की उपधारा (3) और (4) के आधार पर इसका संकल्पनात्मक वर्गीकरण;

(ii) धारा 5 की उपधारा (4) के अंतर्गत विशिष्ट प्रयोजन एआई (एसपीएआई) प्रणाली के रूप में मूल्यांकित इसकी तकनीकी विशेषताएं;

(iii) धारा 6 के तहत निर्दिष्ट उपयोगकर्ता आधार, बाजार प्रभाव, डेटा एकीकरण और राजस्व सृजन जैसे इसके वाणिज्यिक कारक।

 

(5) उच्च जोखिम वाली एआई सामग्री निर्माण प्रणालियों के लिए आवश्यक न्यूनतम बीमा कवरेज होगा:

(i) धारा 7(4)(ए) के तहत संभावित व्यापक प्रभाव या ऑप्ट-आउट व्यवहार्यता की कमी वाली प्रणालियों के लिए: 50 करोड़ रुपये

(ii) धारा 7(4)(बी) के तहत भेद्यता कारकों या अपरिवर्तनीय परिणामों वाली प्रणालियों के लिए: 25 करोड़ रुपये

(iii) धारा 7(4) के तहत अन्य उच्च जोखिम वाली एआई सामग्री निर्माण प्रणालियों के लिए: 10 करोड़ रुपये

 

(6) इस धारा के अनुसार पर्याप्त बीमा कवरेज का प्रमाण, उच्च जोखिम वाली एआई सामग्री निर्माण प्रणालियों के डेवलपर्स, मालिकों और ऑपरेटरों द्वारा आईएआईसी को सालाना प्रदान किया जाएगा।

 

(7) आवश्यक बीमा कवरेज प्राप्त करने और बनाए रखने में विफलता को धारा 19 के तहत अनुपालन का उल्लंघन माना जाएगा, और आईएआईसी उचित प्रवर्तन कार्रवाई कर सकता है, जिसमें निम्नलिखित शामिल हैं, लेकिन इन्हीं तक सीमित नहीं हैं:

(i) चेतावनी जारी करना और जुर्माना लगाना

(ii) सिस्टम के प्रमाणीकरण को निलंबित या रद्द करना

(iii) अनुपालन प्राप्त होने तक एआई प्रणाली की तैनाती या संचालन पर रोक लगाना।

 

(8) धारा 7(4) के तहत उच्च जोखिम के रूप में वर्गीकृत नहीं की गई AI प्रणालियों के लिए, यह अनुशंसा की जाती है कि डेवलपर्स, मालिक और ऑपरेटर AI-जनरेटेड सामग्री से जुड़े संभावित जोखिमों और देनदारियों को कम करने के लिए उचित बीमा कवरेज प्राप्त करें। IAIC AI सिस्टम के जोखिम प्रोफ़ाइल और संभावित प्रभावों के आधार पर उपयुक्त बीमा उत्पादों और कवरेज स्तरों पर मार्गदर्शन प्रदान करेगा।

 

 

(9) मध्यस्थ जो एआई-जनरेटेड सामग्री को होस्ट, प्रकाशित या उपलब्ध कराते हैं, जिसमें ऑनलाइन प्लेटफ़ॉर्म, सामग्री-साझाकरण सेवाएँ और क्लाउड सेवा प्रदाता शामिल हैं, लेकिन इन्हीं तक सीमित नहीं हैं, एआई-जनरेटेड सामग्री से जुड़े संभावित जोखिमों की पहचान करने और उन्हें कम करने के लिए उचित उपायों को लागू करेंगे, विशेष रूप से धारा 7 की उप-धारा (4) के तहत उच्च जोखिम के रूप में वर्गीकृत सामग्री:

 

(i) उच्च जोखिम वाली एआई-जनित सामग्री के लिए, मध्यस्थों को:

(क) सामग्री के संभावित जोखिमों और प्रभावों का आकलन करने के लिए उचित परिश्रम करना;

(ख) हानिकारक, अवैध या उल्लंघनकारी सामग्री का पता लगाने और उसे संबोधित करने के लिए सामग्री मॉडरेशन प्रथाओं को लागू करना;

(ग) सामग्री की पता लगाने और जिम्मेदारी तय करने के लिए रिकॉर्ड और ऑडिट ट्रेल्स बनाए रखना;

(घ) प्राधिकारियों के साथ सहयोग करें और वैध अनुरोध पर प्रासंगिक जानकारी प्रदान करें।

 

(ii) मध्यस्थों को एआई-जनित सामग्री से संबंधित शिकायतों, निष्कासन अनुरोधों और कानूनी नोटिसों से निपटने के लिए स्पष्ट और सुलभ नीतियां और प्रक्रियाएं स्थापित करनी होंगी, ताकि समय पर और उचित कार्रवाई सुनिश्चित हो सके।

 

(iii) मध्यस्थों को भारतीय बीमा विनियामक और विकास प्राधिकरण (आईआरडीएआई) के परामर्श से आईएआईसी द्वारा जारी दिशानिर्देशों के अनुसार, उनके द्वारा होस्ट, प्रकाशित या उपलब्ध कराए गए उच्च जोखिम वाले एआई-जनरेटेड सामग्री के कारण होने वाली संभावित क्षति या नुकसान की भरपाई के लिए पर्याप्त बीमा कवरेज बनाए रखना होगा।

 

(iv) आईएआईसी, प्रासंगिक हितधारकों के परामर्श से, एआई-जनित सामग्री के संचालन के संबंध में मध्यस्थों के लिए दिशानिर्देश और सर्वोत्तम अभ्यास विकसित करेगा, जिसमें निम्नलिखित शामिल हैं, लेकिन इन्हीं तक सीमित नहीं हैं:

(क) जोखिम मूल्यांकन पद्धतियां;

(बी) सामग्री मॉडरेशन प्रथाएँ;

(ग) पारदर्शिता और प्रकटीकरण आवश्यकताएँ;

(घ) प्राधिकारियों एवं कानून प्रवर्तन के साथ सहयोग;

(ई) देयता और बीमा कवरेज आवश्यकताएँ।

 

(10) एआई प्रणालियों को उत्पन्न या हेरफेर की गई सामग्री में पहचान संबंधी जानकारी एम्बेड करने के लिए वॉटरमार्किंग तकनीकों का उपयोग करना चाहिए, जो मजबूत, सुलभ, व्याख्या योग्य हो और सामग्री की प्रामाणिकता को सत्यापित करने और एआई-जनित सामग्री को गैर-एआई-जनित सामग्री से अलग करने में सक्षम हो:


(i) वॉटरमार्किंग तकनीकों के लिए देयता, जिम्मेदारी और जवाबदेही, जो एआई-जनरेटेड सामग्री में पहचान संबंधी जानकारी एम्बेड करती है, को भी उप-धारा (2) के अनुसार इस अधिनियम के अध्याय II में उल्लिखित वर्गीकरण विधियों के अनुसार निर्धारित किया जाएगा;


(ii) पहचान करने वाला वॉटरमार्क या जानकारी पारदर्शी तरीके से सार्वजनिक रूप से सुलभ होनी चाहिए, जिसमें वॉटरमार्क प्रकाशित करना या इसे खुले एपीआई के माध्यम से उपलब्ध कराना शामिल हो सकता है;


(iii) IAIC AI सिस्टम में वॉटरमार्किंग और अन्य पहचान तकनीकों को लागू करने, लाइसेंस देने और उपयोग करने के लिए दिशा-निर्देश विकसित और प्रकाशित करेगा। ये दिशा-निर्देश एम्बेड की जाने वाली जानकारी के प्रकार, लाइसेंसिंग आवश्यकताओं, तकनीकों की मजबूती और पहचान करने वाली जानकारी की पहुंच को संबोधित करेंगे;


(iv) आईएआईसी एआई प्रणालियों में वॉटरमार्किंग तकनीकों के उपयोग को प्रमाणित करेगा और एआई-जनित सामग्री के दुरुपयोग को रोकने में इन तकनीकों की प्रभावशीलता का मूल्यांकन करेगा;


(v) IAIC ओपन-एक्सेस तकनीकी विधियों की एक सार्वजनिक रजिस्ट्री स्थापित करेगा और बनाए रखेगा, ताकि अंतिम उपयोगकर्ताओं, व्यावसायिक उपयोगकर्ताओं और सरकारी अधिकारियों के लिए सुलभ AI-जनरेटेड सामग्री की पहचान और जांच की जा सके। यह रजिस्ट्री इन विधियों के उपयोग के लिए स्पष्ट निर्देश और उनकी वैधता के बारे में जानकारी प्रदान करेगी;

 

(11) यह धारा उन सभी एआई प्रणालियों पर लागू होगी जो सामग्री उत्पन्न या उसमें हेरफेर करती हैं, चाहे सामग्री का उद्देश्य या इच्छित उपयोग कुछ भी हो, इसमें वे एआई प्रणालियाँ भी शामिल हैं जो उप-धारा (2) के अनुसार पाठ, चित्र, ऑडियो, वीडियो या किसी अन्य प्रकार की सामग्री उत्पन्न करती हैं।

अध्याय X

अध्याय XI: रोजगार और बीमा

 

धारा 24 - रोजगार और कौशल सुरक्षा मानक

(1) आईएआईसी निम्नलिखित पर परामर्शात्मक दिशानिर्देश विकसित करेगा:

(i) प्रासंगिक क्षेत्र-विशिष्ट विनियमों और रोजगार के मानकों के अनुरूप क्षेत्र-विशिष्ट रोजगार अवसरों पर उच्च जोखिम वाली एआई प्रणालियों का प्रभाव;

(ii) उच्च जोखिम वाली एआई प्रणालियों की तैनाती के संदर्भ में रोजगार सुरक्षा, निष्पक्ष श्रम प्रथाओं पर जोर।

(1) उच्च जोखिम वाली एआई प्रणालियों को नियोजित करने वाले डेटा फ़िड्युशरीज़ को प्रभावित कर्मचारियों के अधिकारों और आजीविका की रक्षा के लिए निम्नलिखित सुरक्षा उपायों को लागू करना होगा:

(i) उच्च जोखिम वाली एआई प्रणालियों की तैनाती से उत्पन्न होने वाली संभावित नौकरी विस्थापन, कौशल अंतराल और कर्मचारी कल्याण के लिए अन्य जोखिमों की पहचान करने के लिए प्रभाव आकलन का संचालन करना।

(ii) पहचाने गए जोखिमों से निपटने के लिए शमन रणनीतियों का विकास और कार्यान्वयन करना, जैसे:

(क) प्रभावित कर्मचारियों को पर्याप्त सूचना और परामर्श प्रदान करना;

(ख) कर्मचारियों को नई नौकरी की आवश्यकताओं के अनुकूल बनाने के लिए पुनः प्रशिक्षण, कौशल उन्नयन या पुनः कौशल कार्यक्रम की पेशकश करना;

(ग) संगठन के भीतर पुनर्नियुक्ति के अवसर तलाशना;

(घ) जिन कर्मचारियों की नौकरियाँ समाप्त हो जाती हैं, उन्हें उचित मुआवज़ा, विच्छेद पैकेज या विस्थापन सहायता प्रदान करना।

 

(iii) कर्मचारियों के लिए शिकायत निवारण तंत्र स्थापित करना ताकि वे अपने रोजगार और कार्य स्थितियों पर उच्च जोखिम वाली एआई प्रणालियों के प्रभाव से संबंधित चिंताओं को उठा सकें;

(iv) हर छह महीने में सुरक्षा उपायों और शमन रणनीतियों की प्रभावशीलता की नियमित निगरानी और समीक्षा करें, और कर्मचारी फीडबैक और बदलती परिस्थितियों के आधार पर आवश्यक समायोजन करें।

 

(2) उच्च जोखिम वाली एआई प्रणाली लगाने वाले नियोक्ता अपने कर्मचारियों और संबंधित कर्मचारी प्रतिनिधियों, जैसे ट्रेड यूनियनों या कार्य परिषदों के साथ सार्थक परामर्श करेंगे, ताकि निष्पक्ष संक्रमण योजनाएँ बनाई जा सकें। इन योजनाओं में शामिल होंगे:

 

(i) उच्च जोखिम वाली एआई प्रणालियों की तैनाती से संबंधित जानकारी का समय पर खुलासा, जिसमें प्रणालियों की प्रकृति और दायरा, रोजगार पर अपेक्षित प्रभाव और कार्यान्वयन के लिए प्रस्तावित समयसीमा शामिल है।

(ii) कर्मचारियों और उनके प्रतिनिधियों को संक्रमण योजनाओं पर इनपुट और फीडबैक प्रदान करने, तथा किसी भी पुनर्प्रशिक्षण, पुनर्नियुक्ति या वैकल्पिक रोजगार व्यवस्था की शर्तों पर बातचीत करने के अवसर।

(iii) पुनः प्रशिक्षण और कौशल उन्नयन कार्यक्रमों के लिए विशिष्ट प्रावधान, जिनमें शामिल हैं:

(क) नई या संशोधित नौकरी भूमिकाओं के लिए आवश्यक कौशल और दक्षताओं की पहचान करना;

(ख) प्रासंगिक शैक्षणिक संस्थानों, उद्योग निकायों या कौशल विकास एजेंसियों के सहयोग से प्रशिक्षण पाठ्यक्रम विकसित करना और वितरित करना;

(ग) कर्मचारियों को प्रशिक्षण कार्यक्रमों में भाग लेने के लिए सवेतन अवकाश या वित्तीय सहायता प्रदान करना;

(घ) नये कौशल के अर्जन का मूल्यांकन एवं प्रमाणन करने के लिए तंत्र स्थापित करना।

 

(iv) पुनर्नियुक्ति के लिए स्पष्ट मानदंड और प्रक्रियाएं, जिनमें शामिल हैं:

(क) संगठन के भीतर उपयुक्त वैकल्पिक भूमिकाओं की पहचान करना;

(ख) कर्मचारियों को नई भूमिकाओं में परिवर्तन के लिए आवश्यक प्रशिक्षण और सहायता प्रदान करना;

(ग) यह सुनिश्चित करना कि पुनर्नियुक्ति वाले कर्मचारी अपनी वरिष्ठता, लाभ और अन्य अधिकार यथासंभव बरकरार रखें।

 

(v) उन कर्मचारियों को सहायता देने के उपाय जिन्हें पुनः प्रशिक्षित या पुनः तैनात नहीं किया जा सकता, जैसे:

(क) पर्याप्त मुआवजे और लाभों के साथ स्वैच्छिक अलगाव या शीघ्र सेवानिवृत्ति योजनाएं प्रदान करना;

(ख) आउटप्लेसमेंट सेवाएं, नौकरी खोज सहायता या उद्यमिता सहायता प्रदान करना;

(ग) वैकल्पिक रोजगार के अवसरों को सुगम बनाने के लिए अन्य नियोक्ताओं, उद्योग निकायों या सरकारी एजेंसियों के साथ सहयोग करना।

(3) उच्च जोखिम वाली एआई प्रणालियों के विकास, अनुप्रयोग या अनुसंधान में सक्रिय रूप से शामिल डेटा फ़िड्युशियरी या तृतीय-पक्ष संस्थान ऐसे सिस्टम को डिज़ाइन करने, विकसित करने, तैनात करने और उनके साथ काम करने में सक्षम कुशल कार्यबल के विकास में योगदान देंगे। इसमें शामिल होंगे:

 

(i) एआई पारिस्थितिकी तंत्र में विभिन्न भूमिकाओं के लिए आवश्यक ज्ञान, कौशल और दक्षताओं की पहचान करने के लिए कौशल अंतर विश्लेषण आयोजित करना।

(ii) अपने कार्यबल को आवश्यक कौशल और ज्ञान प्रदान करने के लिए स्वतंत्र रूप से या शैक्षिक संस्थानों, उद्योग निकायों या कौशल विकास एजेंसियों के सहयोग से प्रशिक्षण कार्यक्रम विकसित करना और उन्हें क्रियान्वित करना।

(iii) कर्मचारियों को इंटर्नशिप, अप्रेंटिसशिप या नौकरी पर प्रशिक्षण के माध्यम से उच्च जोखिम वाली एआई प्रणालियों के साथ काम करने का व्यावहारिक अनुभव प्राप्त करने के अवसर प्रदान करना।

(iv) कर्मचारियों को निरंतर सीखने और कौशल विकास के लिए प्रोत्साहित करना, और ऐसा करने के लिए उन्हें आवश्यक संसाधन और सहायता प्रदान करना, जैसे:

(क) कर्मचारियों को सम्मेलनों, कार्यशालाओं या प्रशिक्षण कार्यक्रमों में भाग लेने के लिए प्रायोजित करना;

(ख) ऑनलाइन शिक्षण प्लेटफॉर्म, शैक्षिक सामग्री या शोध प्रकाशनों तक पहुंच प्रदान करना;

(ग) अपने पद से संबंधित नए कौशल या प्रमाणन प्राप्त करने वाले कर्मचारियों को प्रोत्साहन या पुरस्कार प्रदान करना।

 

(v) उच्च जोखिम वाली एआई प्रणालियों के नैतिक, कानूनी और सामाजिक निहितार्थों पर ध्यान केंद्रित करते हुए एआई से संबंधित विशेष पाठ्यक्रम, डिग्री कार्यक्रम या प्रमाणन योजनाएं विकसित करने और वितरित करने के लिए शैक्षणिक संस्थानों के साथ सहयोग करना।

(vi) पूरे क्षेत्र में एआई कौशल विकास के लिए एक सुसंगत और उच्च-गुणवत्ता वाला दृष्टिकोण सुनिश्चित करने के लिए कौशल मानकीकरण, पाठ्यक्रम विकास, या कौशल मूल्यांकन और प्रमाणन ढांचे के निर्माण जैसे उद्योग-व्यापी पहलों में भाग लेना।

 

(4) इस धारा की उप-धारा (2), (3) और (4) के अंतर्गत दायित्व उच्च जोखिम वाली एआई प्रणालियों को नियोजित करने वाले डेटा फिड्युशरीज़ पर लागू होंगे, बशर्ते कि वे:

(i) डिजिटल प्रतिस्पर्धा अधिनियम, 2024 [1] के अध्याय II के तहत प्रणालीगत रूप से महत्वपूर्ण डिजिटल उद्यम (एसएसडीई) के रूप में वर्गीकृत , विशेष रूप से:

(क) धारा 5 में निर्दिष्ट मात्रात्मक और गुणात्मक मानदंडों के आधार पर; या

(ख) प्रासंगिक कोर डिजिटल सेवा में उनकी महत्वपूर्ण उपस्थिति के कारण, धारा 6 के तहत भारतीय प्रतिस्पर्धा आयोग द्वारा एसएसडीई के रूप में नामित।

(ii) डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 की धारा 10 की उप-धारा (1) के तहत महत्वपूर्ण डेटा फ़िड्यूशरी के रूप में अधिसूचित, निम्नलिखित कारकों के आधार पर:

(क) संसाधित व्यक्तिगत डेटा की मात्रा और संवेदनशीलता;

(ख) डेटा प्रिंसिपलों के अधिकारों के लिए जोखिम;

(ग) भारत की संप्रभुता, अखंडता और सुरक्षा पर संभावित प्रभाव।

 

(5) आईएआईसी प्रशिक्षण कार्यक्रमों, प्रमाणनों और अन्य पहलों के माध्यम से एआई कार्यबल में ओपन सोर्स सॉफ्टवेयर विकास और सहयोग से संबंधित कौशल के विकास को प्रोत्साहित करेगा।

मूलभूत प्रावधान

 

धारा 25 - एआई प्रौद्योगिकियों के लिए बीमा पॉलिसी

 

(1) धारा 7 की उपधारा (4) के अंतर्गत वर्गीकृत उच्च जोखिम वाली एआई प्रणालियों के डेवलपर्स, मालिकों और ऑपरेटरों को ऐसी प्रणालियों के विकास, परिनियोजन और संचालन से जुड़े संभावित जोखिमों को प्रबंधित करने और कम करने के लिए व्यापक देयता बीमा कवरेज प्राप्त करना और बनाए रखना आवश्यक होगा।

 

(2) उच्च जोखिम वाली एआई प्रणालियों के लिए बीमा कवरेज की आवश्यकताएं उनके जोखिम स्तर और संभावित प्रभावों के अनुपात में होंगी, जैसा कि निम्नलिखित द्वारा निर्धारित किया जाएगा:

(i) धारा 4 की उपधारा (3) और (4) के आधार पर उनका वैचारिक वर्गीकरण;

(ii) विशिष्ट प्रयोजन एआई (एसपीएआई) प्रणालियों के लिए धारा 5 की उप-धारा (4) के तहत मानदंडों के अनुसार उनकी तकनीकी विशेषताओं का मूल्यांकन किया गया;

(iii) धारा 6 के तहत निर्दिष्ट उनके वाणिज्यिक जोखिम कारक जैसे उपयोगकर्ता आधार, बाजार प्रभाव, डेटा एकीकरण और राजस्व सृजन;

 

(3) उच्च जोखिम वाली एआई प्रणालियों के लिए आवश्यक न्यूनतम बीमा कवरेज होगा:

(i) धारा 7(4)(ए) के तहत संभावित व्यापक प्रभाव या ऑप्ट-आउट व्यवहार्यता की कमी वाली प्रणालियों के लिए: 50 करोड़ रुपये;

(ii) धारा 7(4)(बी) के तहत भेद्यता कारकों या अपरिवर्तनीय परिणामों वाली प्रणालियों के लिए: 25 करोड़ रुपये;

(iii) धारा 7(4) के तहत अन्य उच्च जोखिम वाली एआई प्रणालियों के लिए: 10 करोड़ रुपये।

 

(4) भारतीय बीमा विनियामक और विकास प्राधिकरण (आईआरडीएआई) आईएआईसी और संबंधित हितधारकों के परामर्श से उच्च जोखिम वाली एआई प्रणालियों के लिए न्यूनतम बीमा कवरेज मानकों को निर्दिष्ट करेगा, जिसमें निम्नलिखित शामिल हो सकते हैं:

(i) गलत, अनुचित या अपमानजनक एआई-जनित सामग्री से जुड़ी घटनाओं को कवर करने के लिए व्यावसायिक क्षतिपूर्ति बीमा;

(ii) डेटा उल्लंघन, नेटवर्क सुरक्षा विफलताओं या अन्य साइबर घटनाओं से संबंधित घटनाओं को कवर करने के लिए साइबर जोखिम बीमा;

(iii) तीसरे पक्ष को चोट, क्षति या अन्य कानूनी रूप से उत्तरदायी परिदृश्यों के कारण होने वाली घटनाओं को कवर करने के लिए सामान्य वाणिज्यिक देयता बीमा।

 

(5) धारा 5 की उप-धारा (2) और (3) के अंतर्गत वर्गीकृत सामान्य प्रयोजन एआई प्रणालियों के लिए, आईएआईसी, आईआरडीएआई के समन्वय से, निम्नलिखित कारकों पर विचार करते हुए उचित बीमा आवश्यकताओं की जांच और निर्धारण करेगा:

(i) सामान्य प्रयोजन एआई प्रणाली का पैमाना और अंतर्निहित उद्देश्य;

(ii) विभिन्न क्षेत्रों और डोमेनों में इसके बहुविध उपयोग मामलों से जुड़े संभावित जोखिम और प्रभाव;

(iii) तकनीकी विशेषताएं और सीमाएँ जो इसकी सुरक्षा, संरक्षा और विश्वसनीयता को प्रभावित कर सकती हैं;

(iv) वाणिज्यिक कारक जैसे उपयोगकर्ता आधार, बाजार प्रभाव और राजस्व सृजन।

 

(6) उप-धारा (5) के तहत जांच के आधार पर, आईएआईसी आईआरडीएआई को सामान्य प्रयोजन एआई प्रणालियों के लिए विशेष बीमा उत्पादों या कवरेज आवश्यकताओं के विकास की सिफारिश कर सकता है, जिसमें निम्नलिखित शामिल हो सकते हैं:

(i) एआई प्रणाली के विविध अनुप्रयोगों से उत्पन्न होने वाले जोखिमों और देनदारियों की एक विस्तृत श्रृंखला को कवर करने के लिए व्यापक देयता बीमा;

(ii) सामान्य प्रयोजन एआई से जुड़े जोखिमों का आकलन और मात्रा निर्धारित करने में अद्वितीय चुनौतियों का समाधान करने के लिए पूर्वनिर्धारित ट्रिगर्स या प्रदर्शन मेट्रिक्स पर आधारित पैरामीट्रिक बीमा;

(iii) जोखिम पूलिंग या पुनर्बीमा व्यवस्था, जिससे जोखिमों को अनेक बीमाकर्ताओं या हितधारकों के बीच फैलाया जा सके।

 

(7) आईएआईसी और आईआरडीएआई सामान्य प्रयोजन एआई प्रणालियों से संबंधित अंडरराइटिंग, जोखिम मूल्यांकन और दावों से निपटने के लिए दिशानिर्देश और सर्वोत्तम प्रथाओं को स्थापित करने के लिए सहयोग करेंगे, जिसमें उनकी विशिष्ट विशेषताओं और संभावित प्रभावों को ध्यान में रखा जाएगा।

(8) सामान्य प्रयोजन एआई प्रणालियों के डेवलपर्स, मालिकों और ऑपरेटरों को उप-धारा (6) और (7) के तहत आईएआईसी और आईआरडीएआई द्वारा जारी सिफारिशों और दिशानिर्देशों के आधार पर पर्याप्त बीमा कवरेज बनाए रखने के लिए प्रोत्साहित किया जाएगा।

(9) उच्च जोखिम प्रणालियों के लिए एआई-विशिष्ट पॉलिसियाँ प्रदान करने वाले बीमा प्रदाताओं के पास एआई प्रौद्योगिकियों से संबंधित जोखिमों, मूल्य प्रीमियमों का प्रभावी ढंग से आकलन करने और दावों का निपटान करने के लिए पर्याप्त विशेषज्ञता, संसाधन और पुनर्बीमा व्यवस्था होनी चाहिए।

(10) उच्च जोखिम वाली एआई प्रणालियों के डेवलपर्स, मालिक और संचालक धारा 11 में उल्लिखित पंजीकरण और प्रमाणन प्रक्रिया के भाग के रूप में आईएआईसी को पर्याप्त बीमा कवरेज का प्रमाण प्रस्तुत करेंगे।

 

(11) उच्च जोखिम वाली एआई प्रणालियों के लिए आवश्यक बीमा कवरेज प्राप्त करने और बनाए रखने में विफलता को धारा 19 के तहत अनुपालन का उल्लंघन माना जाएगा, और आईएआईसी उचित प्रवर्तन कार्रवाई कर सकता है, जिसमें शामिल हैं:

(i) चेतावनी जारी करना और जुर्माना लगाना;

(ii) प्रणाली के प्रमाणीकरण को निलंबित या रद्द करना;

(iii) अनुपालन प्राप्त होने तक एआई प्रणाली की तैनाती या संचालन पर रोक लगाना।

 

(12) इस धारा की उप-धारा (2), (3) और (4) के अंतर्गत दायित्व उच्च जोखिम वाली एआई प्रणालियों को नियोजित करने वाले डेटा फिड्युशरीज़ पर लागू होंगे, बशर्ते कि वे:

(i) डिजिटल प्रतिस्पर्धा अधिनियम, 2024 के अध्याय II के तहत प्रणालीगत रूप से महत्वपूर्ण डिजिटल उद्यम (एसएसडीई) के रूप में वर्गीकृत, विशेष रूप से:

(क) धारा 5 में निर्दिष्ट मात्रात्मक और गुणात्मक मानदंडों के आधार पर; या

(ख) प्रासंगिक कोर डिजिटल सेवा में उनकी महत्वपूर्ण उपस्थिति के कारण, धारा 6 के तहत भारतीय प्रतिस्पर्धा आयोग द्वारा एसएसडीई के रूप में नामित।

 

(ii) डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 की धारा 10 की उप-धारा (1) के तहत महत्वपूर्ण डेटा फ़िड्यूशरी के रूप में अधिसूचित, निम्नलिखित कारकों के आधार पर:

(क) संसाधित व्यक्तिगत डेटा की मात्रा और संवेदनशीलता;

(ख) डेटा प्रिंसिपलों के अधिकारों के लिए जोखिम;

(ग) भारत की संप्रभुता, अखंडता और सुरक्षा पर संभावित प्रभाव।

 

(13) धारा 7 की उपधारा (4) के तहत उच्च जोखिम के रूप में वर्गीकृत नहीं की गई एआई प्रणालियों के लिए, बीमा कवरेज प्राप्त करना अनुशंसित है, लेकिन अनिवार्य नहीं है। आईएआईसी एआई प्रणाली के जोखिम प्रोफाइल और संभावित प्रभावों के आधार पर उपयुक्त बीमा उत्पादों और कवरेज स्तरों पर मार्गदर्शन प्रदान करेगा;

 

(14) भारतीय बीमा विनियामक और विकास प्राधिकरण (आईआरडीएआई), आईएआईसी और संबंधित हितधारकों के परामर्श से, एआई प्रौद्योगिकियों से संबंधित अंडरराइटिंग, जोखिम मूल्यांकन और दावों से निपटने के लिए दिशानिर्देश और सर्वोत्तम अभ्यास विकसित करेगा। ये दिशानिर्देश निम्नलिखित को संबोधित करेंगे:

 

(i) इस अधिनियम में उल्लिखित जोखिम वर्गीकरण और संबंधित कारकों को ध्यान में रखते हुए एआई प्रणालियों के अद्वितीय जोखिमों और संभावित प्रभावों का मूल्यांकन करने के लिए मूल्यांकन पद्धतियां;

(ii) प्रीमियम गणना मॉडल जो जोखिम प्रोफ़ाइल, तैनाती के पैमाने और एआई प्रणालियों के संभावित परिणामों पर विचार करते हैं;

(iii) दावा प्रसंस्करण मानक जो एआई प्रणालियों से संबंधित दावों का समय पर, निष्पक्ष और पारदर्शी निपटान सुनिश्चित करते हैं;

(iv) एआई-संबंधित घटनाओं और दावों की निगरानी और विश्लेषण को सुविधाजनक बनाने के लिए बीमाकर्ताओं और आईएआईसी के बीच डेटा साझाकरण और रिपोर्टिंग आवश्यकताएं;

(v) बीमा पेशेवरों के लिए क्षमता निर्माण और प्रशिक्षण कार्यक्रम ताकि एआई प्रौद्योगिकियों और उनसे संबंधित जोखिमों के बारे में उनकी समझ बढ़े;

 


[1]  यह माना जाता है कि मार्च 2024 में कॉर्पोरेट मामलों के मंत्रालय को प्रस्तावित मसौदा डिजिटल प्रतिस्पर्धा अधिनियम, 2024 लागू है।

अध्याय XI

अध्याय XII: अपील और वैकल्पिक विवाद समाधान

 

धारा 26 – अपीलीय न्यायाधिकरण में अपील

(1) भारतीय दूरसंचार विनियामक प्राधिकरण अधिनियम, 1997 के अधीन स्थापित अपीलीय न्यायाधिकरण इस अधिनियम के प्रयोजनों के लिए अपीलीय न्यायाधिकरण के रूप में भी कार्य करेगा।

(2) इस अधिनियम के अंतर्गत आईएआईसी के किसी निर्देश, निर्णय या आदेश से व्यथित कोई भी व्यक्ति उस तारीख से 60 दिनों की अवधि के भीतर अपीलीय न्यायाधिकरण में अपील कर सकता है, जिस तारीख को उस व्यक्ति को निर्देश, निर्णय या आदेश की प्रति प्राप्त होती है।

(3) अपीलीय न्यायाधिकरण 60 दिन की उक्त अवधि की समाप्ति के पश्चात् भी अपील पर विचार कर सकेगा, यदि उसका यह समाधान हो जाता है कि उक्त अवधि के भीतर अपील दायर न करने के लिए पर्याप्त कारण था।

(4) अपील प्राप्त होने पर, अपील अधिकरण अपील के पक्षकारों को सुनवाई का अवसर देने के पश्चात, उस पर ऐसे आदेश पारित कर सकेगा जैसा वह ठीक समझे, तथा जिस निर्देश, निर्णय या आदेश के विरुद्ध अपील की गई है उसे पुष्ट, उपांतरित या अपास्त कर सकेगा।

(5) अपीलीय न्यायाधिकरण अपने द्वारा पारित प्रत्येक आदेश की एक प्रति अपील के पक्षकारों और आईएआईसी को भेजेगा।

(6) अपीलीय न्यायाधिकरण के समक्ष दायर अपील को उसके द्वारा यथासंभव शीघ्रता से निपटाया जाएगा, तथा अपील की प्राप्ति की तारीख से 6 माह के भीतर अपील का अंतिम रूप से निपटान करने का प्रयास किया जाएगा।

(7) अपीलीय न्यायाधिकरण, आईएआईसी के किसी निर्देश, निर्णय या आदेश की वैधता, औचित्य या शुद्धता की जांच करने के प्रयोजनार्थ, स्वप्रेरणा से या अन्यथा, ऐसी अपील के निपटान के लिए प्रासंगिक अभिलेखों को मंगा सकेगा और ऐसे आदेश दे सकेगा, जैसा वह उचित समझे।

(8) भारतीय दूरसंचार विनियामक प्राधिकरण अधिनियम, 1997 की धारा 14-आई से 14के के उपबंध, यथावश्यक परिवर्तनों सहित, इस अधिनियम के अधीन अपील अधिकरण को उसके कृत्यों के निर्वहन में उसी प्रकार लागू होंगे, जिस प्रकार वे उस अधिनियम के अधीन उसके कृत्यों के निर्वहन में उस पर लागू होते हैं।

(9) अपीलीय न्यायाधिकरण के किसी निर्णय या आदेश से व्यथित कोई व्यक्ति अपीलीय न्यायाधिकरण के निर्णय या आदेश की सूचना की तारीख से 60 दिनों की अवधि के भीतर उच्चतम न्यायालय में अपील दायर कर सकेगा।

(10) अपीलीय न्यायाधिकरण यथासंभव डिजिटल कार्यालय के रूप में कार्य करने का प्रयास करेगा, जिसमें अपील दायर करना, सुनवाई करना तथा आदेश सुनाना डिजिटल माध्यम से किया जाएगा।

धारा 27 – अपीलीय न्यायाधिकरण द्वारा पारित आदेशों का डिक्री के रूप में निष्पादन योग्य होना

(1) इस अधिनियम के अधीन अपील अधिकरण द्वारा पारित आदेश उसके द्वारा सिविल न्यायालय की डिक्री के रूप में निष्पादनीय होगा और इस प्रयोजन के लिए अपील अधिकरण को सिविल न्यायालय की सभी शक्तियां प्राप्त होंगी।

(2) उपधारा (1) में किसी बात के होते हुए भी, अपील अधिकरण अपने द्वारा पारित किसी आदेश को स्थानीय अधिकारिता रखने वाले सिविल न्यायालय को भेज सकेगा और ऐसा सिविल न्यायालय उस आदेश को इस प्रकार निष्पादित करेगा मानो वह उस न्यायालय द्वारा पारित डिक्री हो।

धारा 28 – वैकल्पिक विवाद समाधान

यदि आईएआईसी की यह राय है कि किसी शिकायत का समाधान मध्यस्थता द्वारा किया जा सकता है, तो वह संबंधित पक्षों को निर्देश दे सकता है कि वे विवाद का समाधान ऐसे मध्यस्थ द्वारा करने का प्रयास करें, जिस पर पक्षकार परस्पर सहमत हों, या जैसा कि भारत में वर्तमान में लागू किसी कानून के अंतर्गत प्रावधान किया गया हो।

हमने सुझाए गए प्रावधानों की एक सूची प्रदान की है, जिनकी मसौदा अधिनियम में अपेक्षा की जा सकती है, लेकिन उन्हें मसौदा तैयार करने की कोई ठोस आवश्यकता नहीं है।

विविध प्रावधान

 

अध्याय XIII: विविध

धारा 29 - नियम बनाने की शक्ति

(1) केन्द्रीय सरकार, अधिसूचना द्वारा, इस अधिनियम के उपबंधों को कार्यान्वित करने के लिए नियम बना सकेगी।

(2) विशिष्टतया, तथा पूर्वगामी शक्ति की व्यापकता पर प्रतिकूल प्रभाव डाले बिना, ऐसे नियम निम्नलिखित सभी या किन्हीं विषयों के लिए उपबंध कर सकेंगे, अर्थात्:-

(क) धारा 10 की उपधारा (6) के अधीन आईएआईसी के अध्यक्ष और सदस्यों की नियुक्ति की रीति, योग्यताएं, सेवा की शर्तें और निबंधन;

(ख) धारा 26 की उपधारा (2) के अधीन अपील न्यायाधिकरण के समक्ष अपील दायर करने का प्ररूप, ढंग और शुल्क;

(ग) धारा 26 की उपधारा (8) के अधीन अपील पर विचार करते समय अपीलीय न्यायाधिकरण द्वारा अपनाई जाने वाली प्रक्रिया;

(घ) कोई अन्य विषय जिसे विहित किया जाना अपेक्षित है या किया जा सकता है, या जिसके संबंध में नियमों द्वारा प्रावधान किया जाना है।

(3) इस अधिनियम के अधीन बनाया गया प्रत्येक नियम, बनाए जाने के पश्चात यथाशीघ्र, संसद के प्रत्येक सदन के समक्ष, जब वह सत्र में हो, कुल तीस दिन की अवधि के लिए रखा जाएगा। यह अवधि एक सत्र में अथवा दो या अधिक आनुक्रमिक सत्रों में पूरी हो सकेगी। यदि उस सत्र के या पूर्वोक्त आनुक्रमिक सत्रों के ठीक बाद के सत्र के अवसान के पूर्व दोनों सदन उस नियम में कोई परिवर्तन करने पर सहमत हो जाएं तो तत्पश्चात् वह ऐसे परिवर्तित रूप में ही प्रभावी होगा। यदि अन्यथा वह प्रभावी नहीं होगा, तो भी नियम के ऐसे परिवर्तन या निष्प्रभाव होने से उसके अधीन पहले की गई किसी बात की वैधता पर कोई प्रतिकूल प्रभाव नहीं पड़ेगा।

धारा 30 - विनियम बनाने की शक्ति

(1) आईएआईसी, अधिसूचना द्वारा, इस अधिनियम के प्रावधानों को कार्यान्वित करने के लिए इस अधिनियम और इसके अधीन बनाए गए नियमों के अनुरूप विनियम बना सकेगी।

(2) विशिष्टतया, तथा पूर्वगामी शक्ति की व्यापकता पर प्रतिकूल प्रभाव डाले बिना, ऐसे विनियम निम्नलिखित सभी या किन्हीं विषयों के लिए उपबंध कर सकेंगे, अर्थात् -

(ए) अनुभाग 4, 5, 6 और 7 में निर्दिष्ट अनुसार, उनके वैचारिक, तकनीकी, वाणिज्यिक और जोखिम-आधारित कारकों के आधार पर एआई प्रणालियों के वर्गीकरण के लिए मानदंड और प्रक्रिया;

(बी) एआई प्रणालियों के विकास, परिनियोजन और उपयोग के लिए मानक, दिशानिर्देश और सर्वोत्तम प्रथाएँ, जिनमें पारदर्शिता, व्याख्या, निष्पक्षता, सुरक्षा, सुरक्षा और मानव निरीक्षण से संबंधित मानक शामिल हैं, जैसा कि धारा 13 में उल्लिखित है;

(ग) एआई प्रणालियों के पंजीकरण और प्रमाणन के लिए प्रक्रियाएं और आवश्यकताएं, जिसमें छूट के मानदंड और आर्टिफिशियल इंटेलिजेंस उपयोग मामलों की राष्ट्रीय रजिस्ट्री का रखरखाव शामिल है, जैसा कि धारा 11 और 12 में निर्दिष्ट है;

(घ) उच्च जोखिम वाली एआई प्रणालियों की तैनाती के बाद निगरानी के लिए दिशानिर्देश और तंत्र, जैसा कि धारा 17 में उल्लिखित है;

(ई) तृतीय पक्ष भेद्यता रिपोर्टिंग, घटना रिपोर्टिंग और जिम्मेदार सूचना साझाकरण के लिए प्रक्रियाएं और प्रोटोकॉल, जैसा कि धारा 18, 19 और 20 में उल्लिखित है;

(च) एआई-जनित सामग्री में सामग्री की उत्पत्ति और पहचान के लिए दिशानिर्देश और आवश्यकताएँ, जैसा कि धारा 23 में निर्दिष्ट है;

(छ) उच्च जोखिम वाली एआई प्रणालियों को विकसित या तैनात करने वाली संस्थाओं के लिए बीमा कवरेज आवश्यकताएँ और जोखिम मूल्यांकन प्रक्रियाएँ, जैसा कि धारा 25 में उल्लिखित है;

(ज) कोई अन्य विषय जिसे विहित किया जाना अपेक्षित है या किया जा सकता है, या जिसके संबंध में विनियमों द्वारा प्रावधान किया जाना है।

(3) इस अधिनियम के अधीन बनाया गया प्रत्येक विनियम, बनाए जाने के पश्चात यथाशीघ्र, संसद के प्रत्येक सदन के समक्ष, जब वह सत्र में हो, कुल तीस दिन की अवधि के लिए रखा जाएगा। यह अवधि एक सत्र में अथवा दो या अधिक आनुक्रमिक सत्रों में पूरी हो सकेगी। यदि उस सत्र के या पूर्वोक्त आनुक्रमिक सत्रों के ठीक बाद के सत्र के अवसान के पूर्व दोनों सदन उस विनियम में कोई परिवर्तन करने के लिए सहमत हो जाएं तो तत्पश्चात् वह ऐसे परिवर्तित रूप में ही प्रभावी होगा। यदि वह विनियम नहीं बनाया जाना चाहिए तो तत्पश्चात् वह निष्प्रभाव हो जाएगा। तथापि, ऐसे किसी परिवर्तन या निष्प्रभावन से उस विनियम के अधीन पहले की गई किसी बात की वैधता पर कोई प्रतिकूल प्रभाव नहीं पड़ेगा।

धारा 31 - सद्भावनापूर्वक की गई कार्रवाई का संरक्षण

इस अधिनियम या इसके अधीन बनाए गए नियमों के उपबंधों के अधीन सद्भावपूर्वक की गई या की जाने वाली किसी बात के लिए केन्द्रीय सरकार, आईएआईसी, उसके अध्यक्ष और उसके किसी सदस्य, अधिकारी या कर्मचारी के विरुद्ध कोई वाद, अभियोजन या अन्य विधिक कार्यवाही नहीं की जाएगी।

 

धारा 32 – अपराध और दंड

(1) कोई भी व्यक्ति जो इस अधिनियम या इसके अधीन बनाए गए नियमों या विनियमों के किसी उपबंध का उल्लंघन करेगा या उसका अनुपालन करने में असफल रहेगा, वह इस धारा में विनिर्दिष्ट दंड का भागी होगा।

(2) डिजिटल प्रतिस्पर्धा अधिनियम, 2024 के तहत प्रणालीगत रूप से महत्वपूर्ण डिजिटल उद्यम (एसएसडीई), जो उच्च जोखिम वाली एआई प्रणालियों को नियोजित करते हैं और इस अधिनियम के प्रावधानों का पालन करने में विफल रहते हैं, निम्नलिखित दंड के लिए उत्तरदायी होंगे:

(क) पहली बार अपराध करने पर, पूर्ववर्ती वित्तीय वर्ष में एसएसडीई के कुल विश्वव्यापी कारोबार का 5% या 50 करोड़ रुपये तक का जुर्माना, जो भी अधिक हो;

(ख) बाद के अपराधों के लिए, पूर्ववर्ती वित्तीय वर्ष में एसएसडीई के कुल विश्वव्यापी कारोबार का 10% या 100 करोड़ रुपये तक का जुर्माना, जो भी अधिक हो।

(3) डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 के तहत महत्वपूर्ण डेटा फ़िड्यूशरी (एसडीएफ), जो उच्च जोखिम वाले एआई सिस्टम को नियोजित करते हैं और इस अधिनियम के प्रावधानों का पालन करने में विफल रहते हैं, वे निम्नलिखित दंड के लिए उत्तरदायी होंगे:

(क) पहली बार अपराध करने पर, पिछले वित्तीय वर्ष में एसडीएफ के कुल विश्वव्यापी कारोबार का 4% या 25 करोड़ रुपये तक का जुर्माना, जो भी अधिक हो;

(ख) बाद के अपराधों के लिए, पिछले वित्तीय वर्ष में एसडीएफ के कुल विश्वव्यापी कारोबार का 8% या 50 करोड़ रुपये तक का जुर्माना, जो भी अधिक हो।

(4) उप-धारा (2) और (3) के अंतर्गत आने वाली संस्थाओं के अलावा, उच्च जोखिम वाली एआई प्रणालियों को विकसित करने, तैनात करने या संचालित करने वाली संस्थाएं, जो इस अधिनियम के प्रावधानों का पालन करने में विफल रहती हैं, निम्नलिखित दंड के लिए उत्तरदायी होंगी:

(क) पहली बार अपराध करने पर 10 करोड़ रुपये तक का जुर्माना;

(ख) लगातार अपराध के लिए 25 करोड़ रुपये तक का जुर्माना।

(5) उप-धारा (2), (3) और (4) में निर्दिष्ट वित्तीय दंड के अलावा, आईएआईसी गैर-अनुपालन संस्थाओं के खिलाफ निम्नलिखित कार्रवाई कर सकता है:

(क) उपचारात्मक उपायों के लिए चेतावनी और निर्देश जारी करना;

(ख) एआई प्रणाली के प्रमाणीकरण को निलंबित या रद्द करना;

(ग) अनुपालन प्राप्त होने तक एआई प्रणाली की तैनाती या संचालन पर रोक लगाना;

(घ) इकाई की प्रक्रियाओं की अपनी लागत पर स्वतंत्र ऑडिट अनिवार्य करना;

(ई) लगातार या गंभीर गैर-अनुपालन के मामलों में इकाई के एआई-संबंधित संचालन के अस्थायी या स्थायी निलंबन की सिफारिश करना।

(6) धारा 11(3) के तहत प्रमाणन से छूट प्राप्त एआई सिस्टम विकसित करने, तैनात करने या संचालित करने वाली संस्थाओं को इस अधिनियम के प्रावधानों का स्वेच्छा से अनुपालन करने के लिए प्रोत्साहित किया जाएगा। ऐसी संस्थाओं द्वारा गैर-अनुपालन पर कोई दंड नहीं लगाया जाएगा, बशर्ते कि:

(ए) एआई प्रणाली धारा 11(3) में निर्दिष्ट छूट मानदंडों के दायरे में बनी हुई है;

(ख) इकाई धारा 11(4) के तहत आवश्यक घटना रिपोर्टिंग और प्रतिक्रिया प्रोटोकॉल बनाए रखती है;

(ग) संस्था एआई प्रणाली से संबंधित किसी भी जांच या पूछताछ की स्थिति में आईएआईसी के साथ सहयोग करेगी।

(7) आईएआईसी पारदर्शिता, आनुपातिकता और उचित प्रक्रिया सुनिश्चित करते हुए दंड के निर्धारण और अधिरोपण के लिए स्पष्ट दिशा-निर्देश स्थापित करेगा। गैर-अनुपालन की प्रकृति, गंभीरता और अवधि, सहयोग करने और उपचारात्मक उपाय करने की इकाई की इच्छा और गैर-अनुपालन से होने वाले संभावित नुकसान जैसे कारकों पर दंड की मात्रा तय करते समय विचार किया जाएगा।

(8) इस धारा के अंतर्गत लगाया गया कोई भी दंड अपराधी के विरुद्ध आपराधिक कार्यवाही आरंभ करने से नहीं रोकेगा, यदि वही कार्य या चूक तत्समय प्रवृत्त किसी अन्य कानून के अंतर्गत अपराध बनता है।

(9) इस अधिनियम के अधीन शास्तियों के रूप में वसूल की गई सभी राशियाँ भारत की संचित निधि में जमा की जाएंगी।

अध्याय XIV: निरसन और बचत

धारा 33 - बचत खंड

(1) इस अधिनियम के उपबंध, तत्समय प्रवृत्त किसी अन्य विधि के उपबंधों के अतिरिक्त होंगे, न कि उनके अल्पीकरण में।

(2) इस अधिनियम की कोई भी बात इस अधिनियम के प्रारंभ होने से पहले एआई प्रणालियों के विकास, परिनियोजन या उपयोग के संबंध में किसी भी इकाई द्वारा की गई किसी कार्रवाई या लिए गए निर्णय की वैधता को प्रभावित नहीं करेगी, बशर्ते कि ऐसी कार्रवाई या निर्णय उस समय लागू कानूनों के अनुसार हो।

(3) इस अधिनियम के प्रारंभ से पूर्व आरंभ की गई या उत्पन्न हुई किसी विधि के अधीन किसी अधिकार, विशेषाधिकार, दायित्व, दंड या दण्ड के संबंध में कोई जांच, कानूनी कार्यवाही या उपाय उसी प्रकार जारी रखा जाएगा, लागू किया जाएगा या लगाया जाएगा मानो यह अधिनियम अधिनियमित ही न हुआ हो।

(4) इस अधिनियम की किसी बात का यह अर्थ नहीं लगाया जाएगा कि वह केन्द्रीय सरकार को कोई नियम या विनियम बनाने या कोई कार्रवाई करने से रोकती है, जिसे वह इस अधिनियम के उपबंधों को प्रभावी करने में उत्पन्न किसी कठिनाई को दूर करने के प्रयोजन के लिए आवश्यक समझे।

अध्याय XV: अंतिम प्रावधान

धारा 34 - कठिनाइयों को दूर करने की शक्ति

(1) यदि इस अधिनियम के उपबंधों को प्रभावी करने में कोई कठिनाई उत्पन्न होती है तो केन्द्रीय सरकार, राजपत्र में प्रकाशित आदेश द्वारा, ऐसे उपबंध कर सकेगी जो इस अधिनियम के उपबंधों से असंगत न हों और जो उसे कठिनाई दूर करने के लिए आवश्यक प्रतीत हों।

(2) इस अधिनियम के प्रारंभ से पांच वर्ष की अवधि की समाप्ति के पश्चात् इस धारा के अधीन कोई आदेश नहीं किया जाएगा।

(3) इस धारा के अधीन किया गया प्रत्येक आदेश, बनाये जाने के पश्चात यथाशीघ्र, संसद के प्रत्येक सदन के समक्ष रखा जाएगा।

 

धारा 35 - [अन्य कानून] का संशोधन

(1) डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 में निम्नलिखित संशोधन किया जाएगा:

(क) धारा 2 में, "डेटा प्रिंसिपल" को परिभाषित करने वाले खंड के बाद, निम्नलिखित खंड डाला जाएगा:

“'कृत्रिम बुद्धिमत्ता प्रणाली' का वही अर्थ होगा जो कृत्रिम बुद्धिमत्ता (विकास और विनियमन) अधिनियम, 2023 की धारा 2 के खंड (ए) के तहत दिया गया है।”

(ख) धारा 7 में, "वैध उपयोग" संबंधी उपधारा के पश्चात् निम्नलिखित उपधारा अंतःस्थापित की जाएगी:

“आर्टिफिशियल इंटेलिजेंस सिस्टम द्वारा व्यक्तिगत डेटा का प्रसंस्करण इस अधिनियम के तहत एक वैध उद्देश्य माना जाएगा, जो आर्टिफिशियल इंटेलिजेंस (विकास और विनियमन) अधिनियम, 2023 के प्रावधानों और इसके तहत बनाए गए नियमों और विनियमों के अनुपालन के अधीन होगा।”

(2) प्रतिस्पर्धा अधिनियम, 2002 में निम्नलिखित संशोधन किया जाएगा:

(क) धारा 2 में, "प्रासंगिक बाजार" को परिभाषित करने वाले खंड के बाद, निम्नलिखित खंड डाला जाएगा:

“'कृत्रिम बुद्धिमत्ता प्रणाली' का वही अर्थ होगा जो कृत्रिम बुद्धिमत्ता (विकास और विनियमन) अधिनियम, 2023 की धारा 2 के खंड (ए) के तहत दिया गया है।”

(ख) धारा 19 में उपधारा (6) के पश्चात् निम्नलिखित उपधारा अंतःस्थापित की जाएगी:

“(7) यह निर्धारित करते समय कि क्या किसी समझौते का उप-धारा (1) के तहत प्रतिस्पर्धा पर कोई प्रतिकूल प्रभाव पड़ता है, आयोग आर्टिफिशियल इंटेलिजेंस (विकास और विनियमन) अधिनियम, 2023 की धारा 20(4) में निर्दिष्ट कारकों के अनुसार समझौते के पक्षकारों द्वारा आर्टिफिशियल इंटेलिजेंस प्रणालियों के उपयोग के प्रभाव पर भी विचार करेगा।”

(3) पेटेंट अधिनियम, 1970 में निम्नलिखित संशोधन किया जाएगा:

(क) धारा 2 में, खंड (1)(जे) के पश्चात, निम्नलिखित खंड सम्मिलित किया जाएगा:

“(जेए) 'कृत्रिम बुद्धिमत्ता प्रणाली' का वही अर्थ होगा जो कृत्रिम बुद्धिमत्ता (विकास और विनियमन) अधिनियम, 2023 की धारा 2 के खंड (ए) के तहत दिया गया है।”

(ख) धारा 3 में, खंड (ट) के पश्चात् निम्नलिखित खंड सम्मिलित किया जाएगा:

“(l) एक कंप्यूटर प्रोग्राम, जिसमें एक कृत्रिम बुद्धिमत्ता प्रणाली भी शामिल है, जब तक कि इसे एक नए हार्डवेयर के साथ संयोजन में दावा नहीं किया जाता है।”

(4) कॉपीराइट अधिनियम, 1957 में निम्नलिखित संशोधन किया जाएगा:

(क) धारा 2 में, खंड (एफएफसी) के बाद, निम्नलिखित खंड डाला जाएगा:

“(एफएफडी) 'कृत्रिम बुद्धिमत्ता प्रणाली' का वही अर्थ होगा जो कृत्रिम बुद्धिमत्ता (विकास और विनियमन) अधिनियम, 2023 की धारा 2 के खंड (ए) के तहत दिया गया है।”

(ख) धारा 13 में उपधारा (3) के पश्चात् निम्नलिखित उपधारा अंतःस्थापित की जाएगी:

“(3ए) आर्टिफिशियल इंटेलिजेंस सिस्टम द्वारा उत्पन्न कार्य के मामले में, लेखक वह व्यक्ति होगा जो कार्य का निर्माण कराता है, जब तक कि आर्टिफिशियल इंटेलिजेंस (विकास और विनियमन) अधिनियम, 2023 या इसके तहत बनाए गए नियमों और विनियमों द्वारा अन्यथा प्रावधान न किया गया हो।”

(5) उपभोक्ता संरक्षण अधिनियम, 2019 में निम्नलिखित संशोधन किया जाएगा:

(क) धारा 2 में, खंड (1) के पश्चात् निम्नलिखित खंड अंतःस्थापित किया जाएगा:

“(1ए) 'कृत्रिम बुद्धिमत्ता प्रणाली' का वही अर्थ होगा जो कृत्रिम बुद्धिमत्ता (विकास और विनियमन) अधिनियम, 2023 की धारा 2 के खंड (ए) के अंतर्गत दिया गया है।”

(ख) धारा 2 में, खंड (47) के पश्चात् निम्नलिखित खंड अंतःस्थापित किया जाएगा:

“(47ए) 'अनुचित व्यापार व्यवहार' में आर्टिफिशियल इंटेलिजेंस प्रणाली का इस तरह से उपयोग शामिल है जो आर्टिफिशियल इंटेलिजेंस (विकास और विनियमन) अधिनियम, 2023 या इसके तहत बनाए गए नियमों और विनियमों के प्रावधानों का उल्लंघन करता है और उपभोक्ता को नुकसान या चोट पहुंचाता है।”

अध्याय XII-XV

AI Policy

#1

Strengthen and empower India’s Digital Public Infrastructure to transform its potential to integrate governmental and business use cases of artificial intelligence at a whole-of-government level.

Notes

Whole-of-government approach

A whole-of-government approach to AI is essential for ensuring that AI is used effectively and efficiently across government. This requires coordination and collaboration between different government agencies. Such an approach to AI can help to avoid duplication of effort, ensure consistency of approach, and maximize the benefits of AI in a flexible and coordinated manner.


 

#2

Transform and rejuvenate forums of judicial governance and dispute resolution to keep them effectively prepared to address and resolve disputes related to artificial intelligence, which are related to issues ranging from those of data protection & consent to algorithmic activities & operations and corporate ethics.

Notes

Effective preparedness of courts, tribunals and dispute resolution forums

Forums of judicial governance and dispute resolution play a crucial role in ensuring that AI is used in a fair and just manner. These forums provide a platform for individuals and businesses to seek redress in the event of disputes related to AI.

It would become necessary for the courts, tribunals and dispute resolution forums to address the interpretability and maintainability of technology law disputes, at various levels, as proposed:

  • Level 1: Data Protection / Privacy / Consent / Processing Issues

  • Level 2: Level 1 + Sector-specific Civil Law Issues

  • Level 3: Algorithmic Use and Ethics Issues

  • Level 4: Level 3 + Issues related to AI Governance in Companies / Government Bodies

  • Level 5: AI and Corporate Practice Issues + Sector-specific Competition Law / Trade Law / Investment Law Issues

  • Level 6: Level 5 + Telecom Arbitration / Technology Arbitration

Reasonable Distinction of Legal and Policy Issues

For courts, tribunals and dispute resolution forums to address and resolve disputes related to artificial intelligence and law, they would require to adopt a technology-neutral approach to interpret and examine the veracity of legal issues related to artificial intelligence use, proliferation and democratisation, based on a reasonable distinction of legal and policy issues, as proposed:

  • Data Protection / Privacy / Consent Issues

  • Data Processing and Pseudonymisation Issues

  • Legitimate Use of Data-related Issues

  • Data Erasure / Right to be Forgotten Issues

  • Contractual Disputes between Data Processors, Consumers and Data Fiduciaries

  • Jurisdiction and Cross-Border Ownership and Liability Questions

  • Transboundary Flow of Data

  • Algorithmic Ethics Issues in Company Law

  • Algorithmic Transparency and Bias Issues in Commercial Law

  • Regulation and Compliance of Algorithmic Activities & Operations of AI Use Cases, subject to their Technical Features and Commercial Viability

  • Artificial Intelligence Governance Issues at Business-to-Business & Business-to-Government levels.

  • AI-related Mergers & Acquisitions Issues

  • AI-related Investment Issues

  • Arbitrability of Telecom Disputes Arising out of use of Artificial Intelligence Technologies

AI Diplomacy

#3

Focus on the socio-technical empowerment and skill mobility for businesses, professionals, and academic researchers in India and the Global South to mobilize and prepare for the proliferation of artificial intelligence & its versatile impact across sectors.

Notes

 

Provide training and education on AI preparedness

Educate businesses, professionals, and academic researchers in India and Global South to strengthen them for preparedness against the risks and proliferation of artificial intelligence technologies.

Promote AI adoption

Enable AI learning and mobilization among businesses, professionals and academic researchers beyond preparedness to enable them to adopt and utilise relevant AI use cases. This helps them to help regulators in India and Global South countries to develop reasonable compliance frameworks and industrial standardisation ecosystems.


 

#4

Enable safer and commercially productive AI & data ecosystems for startups, professionals and MSMEs in the Global South countries.

Notes

Enable Safer AI & Data Ecosystems

  • Aid start-ups, professionals, and MSMEs in the Global South to navigate the complexities of AI with confidence and security.

  • Promote risk mitigation, ensuring that these entities can explore AI and data-driven ventures without excessive threats to their businesses.

  • Foster innovation by creating an environment where start-ups, professionals, and MSMEs can experiment with AI solutions, driving economic growth.

  • Encourage foreign and domestic investments, positioning the Global South as an attractive hub for AI entrepreneurship and development.

 


 

#5

 

Bridge economic and digital cooperation with countries in the Global South to promote the implementation of sustainable regulatory and enforcement standards, when the lack of regulation on digital technologies, especially artificial intelligence becomes an unintended systemic, economic and political risk.

Notes

Bridge Economic and Digital Cooperation to Promote Sustainable Regulatory and Enforcement Standards

 

  • Address the inherent risks posed by the absence of regulations on digital technologies, reducing systemic, economic, and political vulnerabilities.

  • Encourage knowledge exchange and best practices sharing among nations, enabling the implementation of sustainable regulatory and enforcement standards for AI and digital technologies.

  • Enhance the digital readiness of Global South countries, positioning them to tap into the opportunities presented by AI while mitigating risks and uncertainties.

  • Strengthen diplomatic and economic relationships, creating a mutually supportive environment for nations as they navigate the complexities of AI and digital ecosystems.

  • Position the Global South as a collective force in shaping AI regulations and standards, allowing its members to have a more influential and balanced role in the global AI landscape.

AI Entrepreneurship

#6

Develop and promote India-centric, locally viable commercial solutions in the form of AI products & services.

Notes

 

Promote innovation and economic growth

Developing and promoting India-centric, locally viable commercial solutions in the form of AI products and services can help to promote innovation and economic growth. AI-powered products and services can create new jobs, boost productivity, and open up new markets.

Encourage the development of locally viable AI solutions in India

This can help to reduce India's reliance on foreign technology. This can make India more resilient to external shocks and give it more control over its own economic destiny.


 

#7

Enable the industry standardization of sector-specific technical & commercial AI use cases.

Notes

Enable Industry Standardization

  • Promote consistency and interoperability in AI applications across sectors, reducing fragmentation and enhancing efficiency.

  • Foster the development of clear benchmarks for AI use cases, facilitating seamless integration and promoting fair competition

  • Position India to lead in sector-specific AI use cases, attracting investments and fostering innovation in targeted industries

  • Empower professionals and businesses by offering a structured approach to AI adoption, reducing barriers to entry and risks associated with uncertainty.


 

#8

Subsidize & incentivize the availability of compute infrastructure, and technology ecosystems to develop AI solutions for local MSMEs and emerging start-ups.

Notes

Provide financial assistance to SMEs and start-ups to purchase cloud computing resources 
 
  • Provide financial assistance to SMEs and start-ups to purchase cloud computing resources, such as compute power, storage, and networking. This will make it more affordable for SMEs and start-ups to access the resources they need to develop and deploy AI solutions.

​​

​Establish AI innovation hubs 

  • Establish AI innovation hubs across the country. These hubs will provide SMEs and start-ups with access to compute infrastructure, technology ecosystems, and expertise. The hubs can also help to foster collaboration between SMEs, start-ups, and other stakeholders.

Partner with universities and research institutions 

  • Partner with universities and research institutions to develop AI curriculum and to provide training to SMEs and start-ups on AI. This will help to ensure that SMEs and start-ups have the skills and knowledge they need to develop and deploy AI solutions.


 

#9

Establish a decentralized, localized & open-source data repository for AI test cases & use cases and their training models, with services to annotate & evaluate models and develop a system of incentives to encourage users to contribute data and to annotate and evaluate models. 

Notes

Establish Decentralized Data Repository

  • Facilitate accessibility to AI test cases, use cases, and training models, promoting transparency and innovation within the AI ecosystem on a sector-wide basis.

  • Encourage the development of localized, context-aware AI solutions that are adapted to the nuances and requirements of different regions and communities.

  • Foster open-source collaboration, allowing AI practitioners and developers to contribute, annotate, and evaluate models, enhancing knowledge sharing and the quality of AI systems.

  • Enhance the quality of AI models through crowdsourced annotation and evaluation, leading to better-performing, more reliable AI applications.

  • Establish a system of incentives to motivate users to actively participate in data contribution, annotation, and evaluation, creating a collaborative AI ecosystem.

  • Supports the development of AI solutions that align with local requirements and cultural sensitivities, fostering the ethical and responsible deployment of AI.


 

#10

Educate better and informed perspectives on AI-related investments on areas such as: (1) research & development; (2) supply chains; (3) digital goods & services; and (4) public-private partnership & digital public infrastructure.

Notes

 

Research & Development

  • Ensure that stakeholders are well-informed about AI investments in research and development, promoting effective allocation of resources.

Supply Chains

  • Enhance the understanding of AI's impact on supply chains, optimizing logistics and creating resilience in the face of disruptions.

Digital Goods & Services

  • Promote informed investment in the development of digital goods and services, aligning product offerings with market needs and emerging trends.

Public-Private Partnership & Digital Public Infrastructure

  • Facilitate the creation of robust public-private partnerships, fostering collaboration to develop digital public infrastructure that benefits society. The potential of public-private partnerships to boost the use and proliferation of India’s DPI remains untapped and AI education can address the gaps.


 

#11

Address and mitigate the risks of artificial intelligence hype by promoting net neutrality to discourage anti-competitive practices involving the use of AI at various levels and stages of research & development, maintenance, production, marketing & advertising, regulation, self-regulation, and proliferation.

Notes

Research & Development Stage

  • Encourage fair competition in AI research and development, preventing undue concentration of power and resources.

Stages of Maintenance, Production, Marketing, and Advertising

  • Reduce the risk of AI maintenance, production, marketing, and advertising becoming platforms for hype, ensuring ethical and responsible AI promotion.

 

Stages of Regulation, Self-Regulation and Proliferation

 

  • Mitigate the risk of AI proliferation without proper oversight, ensuring that AI technologies are developed and utilized responsibly and for the greater good.

AI Regulation

#12

Foster flexible and gradually compliant data privacy and human-centric explainable AI ecosystems for consumers and businesses.

Notes

 

Foster flexible and gradually compliant data privacy and human-centric explainable AI ecosystems for consumers and businesses.

A flexible and gradually compliant approach to data privacy and AI regulation can help to address these challenges while also promoting innovation. This can ensure:

  • Reduced risk of harm from AI systems

  • Increased customer trust

  • Enhanced reputation

Specific legal and policy issues for consideration

Data Protection / Privacy / Consent Issues: Ensure the sector-neutral interpretative and adjudicatory enablement of data protection rights, and enforcement mechanisms in line with the Digital Personal Data Protection Act, 2023 & its guidelines and the Code of Civil Procedure, 1908.

Data Processing and Pseudonymisation Issues: It is important to ensure that data is processed in a fair and explainable manner and that pseudonymisation is used where appropriate to protect the privacy of individuals.

Legitimate Use of Data-related Issues: The legitimate use of personal and non-personal data must be clarified, standardized and sensitized by the efforts of regulatory, judicial & dispute resolution institutions.

Data Erasure / Right to be Forgotten Issues: Consumers have the right to have their data erased in certain circumstances. There will be legible consumer law, and competition law issues, where the lack of abiding by the right to be forgotten generates dark patterns, which need to be adequately dealt with.

Contractual Disputes between Data Processors, Consumers and Data Fiduciaries: AI systems often involve complex contractual relationships between data processors, consumers, and data fiduciaries. It is important to ensure that these contracts are clear and fair and that consumers have access to effective dispute resolution mechanisms.

Algorithmic Ethics Issues in Company Law: AI systems can raise a number of algorithmic ethics issues. It is important to develop company law principles that promote the responsible & explainable use of AI.

Algorithmic Transparency and Bias Issues in Commercial Law: AI systems can often be opaque and difficult to understand. It is important to develop commercial law principles that promote transparency and accountability in AI systems.

 

#13

Develop regulatory sandboxes for sector-specific use cases of AI to standardize AI test cases & use cases subject to their technical and commercial viability.

Notes

 

Standardization of AI test cases and use cases via regulatory sandboxes

Regulatory sandboxes can provide a safe and controlled environment for testing and evaluating AI applications in a sector-specific context. For example, a regulatory sandbox could be established to allow healthcare providers and technology companies to test and evaluate AI-powered medical diagnostic tools. This would involve developing a set of standardized test cases and use cases that could be used to assess the accuracy, safety, and efficacy of these tools.

Improving technical and commercial viability of AI applications

Regulatory sandboxes can help to identify and address the regulatory and commercial challenges associated with the deployment of AI applications. This can help to make AI applications more technically and commercially viable, and to accelerate their adoption. In addition, defining human autonomy and its extent for AI use cases, technical & commercial, could be helpful for research and commercial purposes, to further standardise AI in the context of the future of work & innovation.


 

#14

Promote the sensitization of the first order, second order and third order effects of using AI products and services to B2C consumers (or citizens), B2B entities and even inter and intra-government stakeholders, which includes courts, ministries, departments, sectoral regulators and statutory bodies at both standalone & whole-of-government levels.

Notes

Sensitization for B2C Consumers

This would be helpful to inform consumers to be vigilant against market practices, which reveal dark patterns and other forms of manipulative practices engineered and promoted through artificial intelligence systems.

Sensitization for B2B entities

To help businesses make informed decisions about the use of AI in their businesses and to enhance their competitiveness.

Sensitization for inter and intra-government stakeholders

To maintain and improve the trust quotient of inter and intra-government stakeholders at two levels:

  • For standalone government and judicial institutions

  • For all organs of the government, from the judicial institutions to the executive branches, which includes statutory, cooperative, diplomatic and administrative sections of the Government of India, and the administrative branches of various state and union territory governments.


 

#15

Enable self-regulatory practices to strengthen the sector-neutral applicability of the Digital Personal Data Protection Act, 2023 and its regulations, circulars and guidelines.

Notes

Sector-neutral applicability of the Digital Personal Data Protection Act, 2023 and its regulations, circulars and guidelines.

Self-regulatory practices can also help to ensure that the Act is applied in a sector-neutral manner, meaning that it applies to all organizations, regardless of their sector of activity.


 

#16

Promote and maneuver intellectual property protections for AI entrepreneurs & research ecosystems in India.

Notes

Promote IP Protections for AI Entrepreneurs in India

  • Encourage AI innovation by safeguarding intellectual property rights, providing creators with a competitive advantage.

  • Promotes collaboration between academia, industry, and government, resulting in knowledge-sharing and cross-pollination of ideas.

Maneuver IP Protections for AI Entrepreneurs in India
  • Foster a thriving AI research ecosystem by protecting inventors' discoveries, fostering a culture of creativity and entrepreneurship.

  • Boost economic development by enabling AI start-ups and entrepreneurs to monetize their innovations and create revenue streams.

about the authors

Abhivardhan

Abhivardhan is honoured to serve as the Chairperson & Managing Trustee of the Indian Society of Artificial Intelligence and Law and as the Managing Partner at Indic Pacific Legal Research. Throughout his journey, he has gained valuable experience in international technology law, corporate innovation, global governance, and cultural intelligence.

 

With deep respect for the field, Abhivardhan has been fortunate to contribute to esteemed law, technology, and policy magazines and blogs. His book, “Artificial Intelligence Ethics and International Law” (2nd edition, 2024) (originally published in 2019), modestly represents his exploration of the important connection between artificial intelligence and ethical considerations. Emphasizing the significance of an Indic approach to AI Ethics, Abhivardhan aims to bring diverse perspectives to the table.

 

Abhivardhan remains humbled by the opportunity to share knowledge through various papers on international technology law. Alongside his consulting and policy advocacy, he has been involved in both authoring and editing books, focusing on public international law and its relationship with artificial intelligence. Some of his notable works also include the 2020 Handbook on AI and International Law, the 2021 Handbook on AI and International Law and the technical reports on Generative AI, Explainable AI and Artificial Intelligence Hype. 
 

Abhivardhan is the drafter and author of the Artificial Intelligence (Development & Regulation) Bill.

 

Akash Manwani

Akash Manwani is honoured to serve as the Chief Innovation Consultant of the Indian Society of Artificial Intelligence and Law. His work embodies a fusion of legal rigor and forward-thinking, positioning him as a vital voice in shaping the dialogue around artificial intelligence in the legal sphere. His notable works include 2020 Handbook on AI and International Law and Technical Reports on AI Auditing and Web3.

Both Akash and Abhivardhan have authored the New Artificial Intelligence Strategy for India.

Terms of use

The contents of the AIACT.IN, i.e., the Draft Artificial Intelligence (Development & Regulation) Bill, 2023 (also may be referred to as the Draft Artificial Intelligence (Development & Regulation) Act, 2023) and the New Artificial Intelligence Strategy for India, 2023 are proposals submitted to the Ministry of Electronics & Information Technology, Government  of India.

 

This is therefore provided as a free resource for educational and informational purposes in public interest only. By using the contents of "AIACT.IN" developed by Indic Pacific Legal Research LLP (referred to as 'The Firm'), you agree to the following terms of use:

  • You may use the contents for personal and non-commercial purposes only. If you use any content from the page of this website in your own work, you must properly attribute the source. This means including a link to this website and citing the name of the page.

  • Here is a sample format to cite this glossary (we have used the OSCOLA citation format as an example):

Indic Pacific Legal Research LLP, 'AIACT.IN' (Indic Pacific Legal Research, November 7, 2023) <https://www.indicpacific.com/ai>

  • The contents of AIACT.IN are the copyrighted property of Indic Pacific Legal Research LLP.   

  • You are not authorised to reproduce, distribute, or modify the contents without the express written permission of a representative of Indic Pacific Legal Research. Any critical suggestions or reviews to the contents of "AIACT.IN" are not counted as reproduction, provided that a proper attribution of the contents of "AIACT.IN" to Indic Pacific Legal Research is given.

  • The Firm makes no representations or warranties about the accuracy or completeness of the contents of "AIACT.IN". The Firm disclaims all liability for any errors or omissions in the contents of "AIACT.IN".

  • You agree to indemnify and hold the Firm harmless from any claims or damages arising out of your use of the contents of "AIACT.IN".

 

If you have any questions or concerns about these terms of use, please contact us at global@indicpacific.com

robot made up of hindi alphabets.jpg

India’s first AI regulation (privately proposed), AIACT.IN now has a Hindi edition as well:

कृत्रिम बुद्धिमत्ता (विकास एवं विनियमन) अधिनियम, २०२३

Click and read the Hindi edition of AIACT.IN Version 3.

bottom of page