یکی از مجلات کامپیوتری پرسش زیر را مطرح می کند که اگر یک اتومبیل خودران که در خیابان هاي شهر در حال حرکت است، با یک عابرپیاده تصادف کرده و موجب مرگ وي می شود. قطعاً این مسئله باید از طریق طرح دعوایی در دادگاه تعقیب شود. اما دقیقاً کدام قوانین اعمال می شود؟ هیچکس نمی داند. قوانینی که احتمالاً اعمال می شوند، قوانینی هستند که با تولیدات با طراحی معیوب سر و کار دارند. با وجود این، معتقد است که پیروي از مسیر قانونی، مانع توسعه و پیشرفت اتومبیل هاي خودران می شود؛ زیرا فرایند حل و فصل اختلافات مربوط به پرونده هاي طراحی محصول (در ایالات متحده امریکا) معمولاً ده برابر بیشتر از پرونده هاي مربوط به قصور انسانی هزینه دارند و هزینۀ اضافی مرتبط با محصول جهت برطرف کردن مسئله نیز داخل در این هزینه ها نیست. چنین پرونده هایی مانند پرونده هاي قصور و غفلت انسانی، همانطور که با انسان راننده برخورد می شود، رفتار گردد.
مسئولیت قانونی سیستم هاي هوش مصنوعی حداقل به سه عامل بستگی دارد: اول این که آیا هوش مصنوعی خدمت یا محصول است. این امر در قانون بد تعریف شده است و مفسرین متفاوت، دیدگاه هاي مختلفی را در این مورد عرضه می کنند. دوم، اگر جرم کیفري رخ داد، چه عنصر معنوي مورد نیاز است. بعید به نظر می رسد که برنامه هاي هوش مصنوعی باعث نقض قوانینی شوند که نیازمند آگاهی و علم به ارتکاب فعل مجرمانه اند؛ اما بسیار ممکن است که قوانینی را نقض کنند که «یک انسان متعارف می دانست» که این دست از اقدامات ممکن است باعث جرم شوند و تقریبا قطعی است که آنها می توانند جرایم با مسئولیت محض مرتکب شوند. سوم، این که محدودیت هاي سیستم هاي هوش مصنوعی باید به خریداران اعلام شود. ازآنجایی که سیستم هاي هوش مصنوعی هر دو محدودیت هاي عمومی و خاص را دارند، پرونده هاي حقوقی پیرامون چنین موضوعاتی ممکن است بر پایۀ گفتار خاص هر هشداري دربارۀ این محدودیت ها باشند.