人工智能 (AI) 实体严重挑战了传统的归因和责任法律框架,因为它们与开发商和所有者的距离越来越远,导致问责制差距。 考虑自动驾驶汽车对人类造成伤害甚至死亡的场景。 我们对谁负责? 我们对谁可以被起诉或起诉没有明确的答案,因为我们对人工智能实体缺乏全面的法律理解。 许多学者提出,通过首先授予其法人资格,将责任附加到损害的直接来源,即人工智能实体本身,作为问责问题的解决方案。 但法律尚未回答人工智能实体是否有资格获得法人资格的问题,如果有,法律依据是什么。 本文首次对与 AI 实体相关的法人范围进行了实证评估,并回答了这个问题。 我对人工智能的法人身份问题提出两个主张。 首先,我认为法院对法人的整体方法比许多人假设的更加不同,并且它不支持人工智能实体的法人。 为了证实这一立场,我分析了从 1809 年至今美国法院授予人造实体法人资格的司法判决的法律依据,并对这些判决中不同法人条件出现的频率进行了统计分析。 我发现法律学说与现有的人工智能实体法人理论之间存在明显的不一致。 其次,我认为从经验上理解法人的法律环境会阻止法院授予人工智能实体法人资格,并且应该在这样做之前让立法者暂停。 如果法院和立法者在回答人工智能实体的责任问题时考虑本文确定的法人条件,他们会发现法人与这些实体之间的不兼容性。 如果不承认这种不兼容性,围绕人工智能实体的理论、政策和诉讼可能会朝着破坏法律确定性和扰乱法律期望的方向发展。
1