Trí tuệ nhân tạo có thể gây hại cho chúng ta như thế nào?


51

Chúng ta thường nghe rằng trí thông minh nhân tạo có thể gây hại hoặc thậm chí giết chết con người, vì vậy nó có thể gây nguy hiểm.

Trí tuệ nhân tạo có thể gây hại cho chúng ta như thế nào?


6
Điều này hơi rộng, vì có nhiều lý do và kịch bản được đề xuất trong đó AI có thể trở nên nguy hiểm. Ví dụ như DuttaA gợi ý ở trên, con người có thể thiết kế các hệ thống vũ khí thông minh quyết định nên nhắm mục tiêu gì và đây là một mối lo ngại thực sự vì có thể đã sử dụng AI hẹp. Có lẽ cung cấp thêm ngữ cảnh cho những nỗi sợ cụ thể mà bạn muốn hiểu, bằng cách trích dẫn hoặc liên kết một mối quan tâm cụ thể mà bạn đã đọc (vui lòng sử dụng chỉnh sửa ).
Neil Slater

4
@NeilSlater Có, nó có thể quá rộng, nhưng tôi nghĩ rằng câu trả lời này ai.stackexchange.com/a/15462/2444 cung cấp một số lý do chính đáng. Tôi đã chỉnh sửa câu hỏi để loại bỏ giả định có thể sai.
nbro

2
Đây có phải là câu hỏi cụ thể về "siêu trí tuệ" hay AI nói chung? (Ví dụ, nếu siêu trí tuệ giả định, thì " vấn đề kiểm soát " giả định là một vấn đề. Tuy nhiên, các hệ thống vũ khí tự động đương đại sẽ không phải là siêu thông minh, cũng không phải là phương tiện tự trị, và chúng có thể gây hại cho con người.)
DukeZhou

@DukeZhou OP ban đầu không đề cập rõ ràng đến siêu trí tuệ, nhưng tôi cho rằng anh ta đang đề cập đến bất cứ điều gì có thể được coi là AI, bao gồm cả SI.
nbro

3
Trước tiên hãy hỏi làm thế nào trí thông minh bình thường có thể làm hại bạn? Câu trả lời là như vậy.
J ...

Câu trả lời:


47

tl; dr

Có nhiều lý do hợp lệ tại sao mọi người có thể sợ (hoặc tốt hơn là quan tâm đến ) AI, không phải tất cả đều liên quan đến robot và các tình huống tận thế.

Để minh họa rõ hơn những mối quan tâm này, tôi sẽ cố gắng chia chúng thành ba loại.

AI có ý thức

Đây là loại AI mà câu hỏi của bạn đang đề cập đến. Một AI có ý thức siêu thông minh sẽ tiêu diệt / nô lệ loài người. Điều này chủ yếu được mang đến cho chúng ta bởi khoa học viễn tưởng. Một số ví dụ đáng chú ý của Hollywood là "Kẻ hủy diệt" , "Ma trận" , "Thời đại của Ultron" . Những cuốn tiểu thuyết có ảnh hưởng nhất được viết bởi Isaac Asimov và được gọi là "sê-ri Robot" (bao gồm "Tôi, robot" , cũng được chuyển thể thành phim).

Tiền đề cơ bản trong hầu hết các công trình này là AI sẽ phát triển đến mức nó trở nên có ý thức và sẽ vượt qua con người về trí thông minh. Mặc dù các bộ phim Hollywood chủ yếu tập trung vào các robot và cuộc chiến giữa chúng và con người, nhưng không có sự nhấn mạnh đủ cho AI thực sự (tức là "bộ não" điều khiển chúng). Một lưu ý phụ, vì cách kể chuyện, AI này thường được miêu tả là siêu máy tính kiểm soát mọi thứ (để các nhân vật chính có một mục tiêu cụ thể). Không đủ thăm dò đã được thực hiện trên "trí thông minh mơ hồ" (mà tôi nghĩ là thực tế hơn).

Trong thế giới thực, AI tập trung vào giải quyết các nhiệm vụ cụ thể! Một tác nhân AI có khả năng giải quyết các vấn đề từ các lĩnh vực khác nhau (ví dụ: hiểu lời nói và xử lý hình ảnh và lái xe và ... - giống như con người) được gọi là Trí tuệ nhân tạo chung và được yêu cầu để AI có thể "suy nghĩ" và trở thành có ý thức

Trên thực tế, chúng tôi là một cách loooooooong từ Trí tuệ nhân tạo nói chung! Điều đó đang được nói rằng không có bằng chứng về lý do tại sao điều này không thể đạt được trong tương lai. Vì vậy, hiện tại, ngay cả khi chúng ta vẫn còn ở giai đoạn sơ khai của AI, chúng ta không có lý do gì để tin rằng AI sẽ không phát triển đến mức thông minh hơn con người.

Sử dụng AI với mục đích xấu

Mặc dù một AI chinh phục thế giới là một chặng đường dài từ khi xảy ra, có một số lý do để quan tâm đến AI ngày nay , điều đó không liên quan đến robot! Danh mục thứ hai tôi muốn tập trung hơn một chút là một số cách sử dụng độc hại của AI ngày nay.

Tôi sẽ chỉ tập trung vào các ứng dụng AI có sẵn ngày hôm nay . Một số ví dụ về AI có thể được sử dụng cho mục đích xấu:

  • DeepFake : một kỹ thuật áp đặt khuôn mặt của ai đó lên hình ảnh một video của người khác. Điều này đã trở nên phổ biến gần đây với khiêu dâm người nổi tiếng và có thể được sử dụng để tạo ra tin tức giả mạo và trò lừa bịp. Nguồn: 1 , 2 , 3

  • Với việc sử dụng các hệ thống giám sát hàng loạt và phần mềm nhận dạng khuôn mặt có khả năng nhận diện hàng triệu khuôn mặt mỗi giây , AI có thể được sử dụng để giám sát hàng loạt. Mặc dù khi chúng ta nghĩ về giám sát hàng loạt, chúng ta nghĩ về Trung Quốc, nhiều thành phố phương Tây như London , Atlanta và Berlin là một trong những thành phố được giám sát nhiều nhất trên thế giới . Trung Quốc đã tiến một bước xa hơn bằng cách áp dụng hệ thống tín dụng xã hội , một hệ thống đánh giá cho dân thường dường như được đưa thẳng ra khỏi trang 1984 của George Orwell.

  • Ảnh hưởng đến mọi người thông qua phương tiện truyền thông xã hội . Ngoài việc nhận ra thị hiếu của người dùng với mục tiêu tiếp thị mục tiêu và thêm vị trí (một thông lệ chung của nhiều công ty internet), AI có thể được sử dụng một cách sai lầm để ảnh hưởng đến việc bỏ phiếu của mọi người (trong số những thứ khác). Nguồn: 1 , 2 , 3 .

  • Hack .

  • Các ứng dụng quân sự, ví dụ như các cuộc tấn công bằng máy bay không người lái, hệ thống nhắm mục tiêu tên lửa.

Ảnh hưởng bất lợi của AI

Thể loại này khá chủ quan, nhưng sự phát triển của AI có thể mang theo một số tác dụng phụ bất lợi. Sự khác biệt giữa thể loại này và trước đó là các hiệu ứng này, trong khi có hại, không được thực hiện có chủ ý; thay vì chúng xảy ra với sự phát triển của AI. Một số ví dụ:

  • Việc làm trở nên dư thừa . Khi AI trở nên tốt hơn, nhiều công việc sẽ được thay thế bằng AI. Thật không may, không có nhiều điều có thể được thực hiện về điều này, vì hầu hết các phát triển công nghệ đều có tác dụng phụ này (ví dụ máy móc nông nghiệp khiến nhiều nông dân mất việc, tự động hóa thay thế nhiều công nhân nhà máy, máy tính cũng làm như vậy).

  • Củng cố sự thiên vị trong dữ liệu của chúng tôi . Đây là một danh mục rất thú vị, vì AI (và đặc biệt là Mạng nơ-ron) chỉ tốt như dữ liệu họ được đào tạo và có xu hướng duy trì và thậm chí tăng cường các hình thức thiên vị xã hội khác nhau, đã tồn tại trong dữ liệu. Có nhiều ví dụ về các mạng thể hiện hành vi phân biệt chủng tộc và phân biệt giới tính. Nguồn: 1 , 2 , 3 , 4 .


4
Tôi không hiểu tại sao "Việc làm trở nên dư thừa" là một mối quan tâm nghiêm trọng. Thế giới sẽ đẹp biết bao nếu không có ai (hoặc ít nhất là đại đa số con người) không cần phải làm việc và thay vào đó có thể tập trung vào sở thích và tận hưởng cuộc sống.
kukis

4
@kukis Làm thế nào bạn có thể có được thực phẩm, nhà cửa, vv, mà không có việc làm, trừ khi bạn đã giàu có? Một công việc có nghĩa là sự sống còn cho hầu hết mọi người.
nbro

6
Về việc làm trở nên dư thừa, có vẻ như chúng ta có thể làm gì đó về nó, tức là cải tổ các mô hình kinh tế của chúng ta để không phụ thuộc vào con người có việc làm. Ý tôi là, nếu hệ thống kinh tế của chúng ta sẽ bị phá vỡ khi tràn ngập lao động rẻ mạt, thì rõ ràng là chúng còn thiếu sót. Và cho rằng chúng tôi hy vọng lỗ hổng này sẽ trở nên nguy hiểm trong tương lai gần, nó nên được sửa chữa.
Nat

2
Một ví dụ khác về nơi AI có thể gây ra vấn đề lớn là với giao dịch chứng khoán. Phần lớn các giao dịch chứng khoán ngày nay được thực hiện bởi AI ngày càng cạnh tranh, có thể phản ứng nhanh hơn nhiều so với các nhà giao dịch của con người. Nhưng nó đã đến lúc mà ngay cả những người viết chúng cũng không nhất thiết phải hiểu lý do những AI này đưa ra quyết định, và đã có một số tác động thảm khốc trên thị trường từ các thuật toán dự đoán chứng khoán trở nên tồi tệ.
Darrel Hoffman

8
@penelope không phải mọi công việc mà AI cố gắng thay thế là "lãi suất thấp". Tôi cho rằng có rất nhiều công việc yêu cầu cao có thể được thay thế trong tương lai (không quá xa). Một số ví dụ là bác sĩ, thương nhân và phi công. Nếu AI tiếp tục tiến bộ và tiếp tục chẩn đoán bệnh tốt hơn, sẽ không hợp lý khi nghĩ rằng công việc của bác sĩ sẽ bị cắt giảm.
Djib2011

14

Thời gian ngắn

  • Tai nạn vật lý , ví dụ do máy móc công nghiệp, máy bay tự động, xe tự lái. Đặc biệt trong trường hợp các tình huống bất thường như thời tiết khắc nghiệt hoặc lỗi cảm biến. Thông thường, một AI sẽ hoạt động kém trong các điều kiện mà nó chưa được thử nghiệm rộng rãi.
  • Các tác động xã hội như giảm khả năng sẵn có của công việc, rào cản đối với những người nghèo khó. cho vay, bảo hiểm, tạm tha.
  • Các công cụ khuyến nghị đang thao túng chúng ta ngày càng nhiều để thay đổi hành vi của chúng ta (cũng như củng cố bong bóng "thế giới nhỏ" của chính chúng ta). Các công cụ đề xuất thường xuyên phục vụ các nội dung không phù hợp thuộc nhiều loại khác nhau cho trẻ nhỏ, thường là do người tạo nội dung (ví dụ: trên YouTube) sử dụng nội dung từ khóa phù hợp để có vẻ thân thiện với trẻ em.
  • Thao túng chính trị ... Tôi nói đủ rồi.
  • Từ chối hợp lý của cuộc xâm lược quyền riêng tư . Giờ đây, AI có thể đọc email của bạn và thậm chí gọi điện thoại cho bạn, thật dễ dàng để ai đó hành động dựa trên thông tin cá nhân của bạn và tuyên bố rằng họ có máy tính để thực hiện.
  • Biến chiến tranh thành một trò chơi điện tử , nghĩa là thay thế những người lính bằng những cỗ máy được điều khiển từ xa bởi một người không gặp nguy hiểm và bị loại bỏ khỏi thương vong của anh ta / cô ta.
  • Thiếu minh bạch . Chúng tôi tin tưởng máy móc để đưa ra quyết định với rất ít phương tiện để có được sự biện minh đằng sau một quyết định.
  • Tiêu thụ tài nguyên và ô nhiễm. Đây không chỉ là vấn đề về AI, tuy nhiên mọi cải tiến trong AI đều tạo ra nhiều nhu cầu về Dữ liệu lớn và cùng nhau tạo ra nhu cầu lưu trữ, xử lý và kết nối mạng. Ngoài tiêu thụ điện và khoáng sản quý hiếm, cơ sở hạ tầng cần phải được xử lý sau tuổi thọ vài năm.
  • Giám sát - với sự phổ biến của điện thoại thông minh và thiết bị nghe, có một kho dữ liệu vàng nhưng quá nhiều để sàng lọc từng mảnh. Có được một AI để sàng lọc thông qua nó, tất nhiên!
  • An ninh mạng - tội phạm mạng đang ngày càng tận dụng AI để tấn công các mục tiêu của chúng.

Tôi đã đề cập đến tất cả những thứ này đã hoàn toàn sẵn sàng chưa?

Dài hạn

Mặc dù không có ranh giới rõ ràng giữa AI và AGI, phần này nói thêm về những gì xảy ra khi chúng ta tiến xa hơn tới AGI. Tôi thấy hai lựa chọn thay thế:

  • Hoặc là chúng tôi phát triển AGI là kết quả của sự hiểu biết được cải thiện về bản chất của trí thông minh,
  • hoặc chúng ta cùng nhau làm một cái gì đó có vẻ hiệu quả nhưng chúng ta không hiểu rõ lắm, giống như rất nhiều máy học hiện nay.

Trong trường hợp đầu tiên, nếu một AI "lừa đảo", chúng ta có thể xây dựng các AI khác để đánh lừa và vô hiệu hóa nó. Trong trường hợp thứ hai, chúng tôi không thể, và chúng tôi cam chịu. AI sẽ là một dạng sống mới và chúng ta có thể bị tuyệt chủng.

Dưới đây là một số vấn đề tiềm ẩn:

  • Sao chép và dán. Một vấn đề với AGI là nó hoàn toàn có thể chạy trên máy tính để bàn, điều này tạo ra một số vấn đề:
    • Script Kiddies - mọi người có thể tải xuống AI và thiết lập các tham số theo cách phá hoại. Liên quan
    • Các nhóm tội phạm hoặc khủng bố sẽ có thể định cấu hình AI theo ý thích của chúng. Bạn không cần phải tìm một chuyên gia về chế tạo bom hoặc bioweapons nếu bạn có thể tải xuống AI, bảo họ thực hiện một số nghiên cứu và sau đó cung cấp cho bạn các hướng dẫn từng bước.
    • AI tự sao chép - có rất nhiều trò chơi trên máy tính về điều này. AI vỡ ra và lây lan như virus. Càng nhiều sức mạnh xử lý, càng có khả năng bảo vệ bản thân và lan rộng hơn.
  • Cuộc xâm lược của tài nguyên máy tính . Có khả năng nhiều khả năng tính toán có lợi cho AI. Một AI có thể mua hoặc đánh cắp tài nguyên máy chủ hoặc tài nguyên của máy tính để bàn và thiết bị di động. Được đưa đến mức cực đoan, điều này có thể có nghĩa là tất cả các thiết bị của chúng tôi đơn giản trở nên không sử dụng được, nó sẽ tàn phá thế giới ngay lập tức. Nó cũng có thể có nghĩa là tiêu thụ điện năng lớn (và thật khó để "rút phích cắm" vì các nhà máy điện được điều khiển bằng máy tính!)
  • Nhà máy tự động.Một AGI mong muốn có được sự hiện diện vật lý nhiều hơn trên thế giới có thể tiếp quản các nhà máy để sản xuất robot có thể xây dựng các nhà máy mới và về cơ bản tạo ra các cơ thể cho chính nó.
  • Đây là những cân nhắc khá triết học, nhưng một số người sẽ cho rằng AI sẽ phá hủy những gì làm nên con người chúng ta:
    • Tự ti. Điều gì sẽ xảy ra nếu nhiều thực thể AI thông minh hơn, nhanh hơn, đáng tin cậy hơn và sáng tạo hơn những người giỏi nhất?
    • Vô nghĩa. Với robot thay thế nhu cầu lao động thể chất và AI thay thế nhu cầu lao động trí tuệ, chúng tôi thực sự sẽ không có gì để làm. Không ai sẽ nhận được giải thưởng Nobel một lần nữa vì AI sẽ đi trước. Tại sao thậm chí được giáo dục ngay từ đầu?
    • Độc canh / đình trệ - trong các kịch bản khác nhau (chẳng hạn như một xã hội "độc tài nhân từ" AGI) có thể trở nên cố định trong một mô hình vĩnh viễn mà không có ý tưởng mới hoặc bất kỳ thay đổi nào (dù có thể dễ chịu). Về cơ bản, thế giới mới dũng cảm.

Tôi nghĩ rằng AGI đang đến và chúng ta cần lưu ý về những vấn đề này để có thể giảm thiểu chúng.


1
Tôi nghĩ rằng loại AI có khả năng lập trình lại các nhà máy để tự chế tạo robot là một chặng đường dài. "AI" hiện đại chỉ là nhận dạng mẫu thực sự tinh vi.
dùng253751

Tôi đã nói "dài hạn" và "AGI". AGI, theo định nghĩa, vượt xa nhận dạng mẫu tinh vi. Và mặc dù "nhận dạng mẫu tinh vi" là thứ phổ biến nhất được sử dụng trong các ứng dụng trong thế giới thực, nhưng đã có rất nhiều công việc theo các hướng khác (đặc biệt là phân tách vấn đề / lập kế hoạch hành động, mà IMO là nhân tố chính của các loại kịch bản này. )
Artelius

8

Ngoài các câu trả lời khác, tôi muốn thêm vào ví dụ về nhà máy sản xuất cookie:

AI học máy về cơ bản cố gắng hoàn thành mục tiêu được mô tả bởi con người. Ví dụ, con người tạo ra một AI chạy một nhà máy cookie. Mục tiêu họ thực hiện là bán càng nhiều cookie càng tốt để có lợi nhuận cao nhất.

Bây giờ, hãy tưởng tượng một AI đủ mạnh. AI này sẽ nhận thấy rằng nếu anh ta bắt giữ tất cả các nhà máy sản xuất bánh quy khác, mọi người phải mua cookie trong nhà máy của anh ta, làm cho doanh số tăng và lợi nhuận cao hơn.

Vì vậy, lỗi của con người ở đây là không đưa ra hình phạt nào cho việc sử dụng bạo lực trong thuật toán. Điều này dễ bị bỏ qua vì con người không mong đợi thuật toán đi đến kết luận này.


8
Điều này làm tôi nhớ đến một ví dụ trong thế giới thực mà tôi đã thấy trên reddit khi một người nào đó đang đào tạo một AI để leo lên cầu thang trong Unity. Nó phát hiện ra rằng nó có thể tự ép mình xuống đất với rất nhiều lực và vật lý sẽ bị trục trặc, khiến nó bay lên không trung và nhanh nhất lên đỉnh.
GammaGames

2
Hoặc, tệ hơn, nó quyết định rằng con người được tạo ra từ các nguyên tử sẽ được sử dụng tốt hơn để tạo ra cookie.
nick012000

Tôi đã nghe lập luận này trước đây. Một trong những sai lầm của việc dự đoán ngày tận thế của AI là chúng ta không thể dự đoán AI sẽ làm gì. AI hoàn toàn có thể nhận ra rằng việc bắt cóc các công ty cookie khác có thể phá hủy nền kinh tế toàn cầu và phá hủy mọi nhu cầu tiềm năng về cookie ... Luật kinh tế, cung và cầu
Zakk Diaz

8

Kịch bản yêu thích của tôi về tác hại của AI liên quan đến trí thông minh không cao, nhưng trí thông minh thấp. Cụ thể, giả thuyết goo xám .

Đây là nơi một quá trình tự sao chép, tự động chạy amok và chuyển đổi tất cả các tài nguyên thành bản sao của chính nó.

Vấn đề ở đây là AI không "thông minh" theo nghĩa là có trí thông minh cao hoặc trí thông minh chung - nó chỉ rất giỏi trong một điều duy nhất và có khả năng tái tạo theo cấp số nhân.


3
FWIW, con người đã xám xịt. Chúng tôi là một goo xám ích kỷ không muốn bị thay thế bởi một goo xám thậm chí còn hiệu quả hơn.
dùng253751

1
@immibis Đó tất nhiên là một POV triết học, không thực tế. Có rất nhiều người phân biệt giữa con người và máy móc tự sao chép / tự duy trì. Phim zombie sẽ không thành công lắm nếu đa số mang định nghĩa của bạn ở trái tim =)
Stian Yttervik

1
@immibis Bạn đã đọc bài viết goo xám trên Wikipedia mà câu trả lời này tham khảo chưa? Thuật ngữ này đề cập đến các máy không thông minh (nano) đang phát điên, không liên quan đến bất kỳ hành vi thông minh nào. Vì vậy, tôi muốn nói, không, con người không phải vậy (và cả AI cũng vậy), vì chúng ta đã không ăn Albert Einstein khi chúng ta có thể.
kubanchot

@kubanchot ý nghĩa cơ bản của thuật ngữ "trí thông minh" dường như bị hiểu lầm rộng rãi, cả trong giới học thuật và công chúng. Thông minh là một phổ, nói chung là tương đối (với các cơ chế ra quyết định khác) và dựa trên tiện ích của bất kỳ quyết định nào trong bối cảnh của một vấn đề. Vì vậy, goo xám sẽ thông minh, chỉ là trí thông minh sẽ bị hạn chế và hẹp.
DukeZhou

5

Tôi muốn nói rằng mối đe dọa thực sự lớn nhất sẽ là sự mất cân bằng / phá vỡ mà chúng ta đang thấy. Những thay đổi của việc đưa 90% đất nước ra khỏi công việc là có thật, và kết quả (sẽ còn phân phối tài sản không đồng đều hơn nữa) thật đáng sợ nếu bạn nghĩ đến chúng.


2
Mọi người nói điều tương tự trong cuộc cách mạng công nghiệp khiến hầu hết các công việc đồng áng trở nên dư thừa. Mặc dù bạn có thể không sai, và đó là điều mà tôi lo lắng về cá nhân, nghiên cứu xu hướng nghiên cứu cho thấy điều này có thể không phải là mối quan tâm và có thể có việc làm mới sẽ mở ra.
Chương trình

@Programmdude - Tôi nghĩ rằng có một sự khác biệt cơ bản giữa những thay đổi cách mạng công nghiệp và thậm chí loại bỏ các công việc thư ký thông qua sự ra đời của P với những gì sẽ xảy ra trong những thập kỷ tới.
Mayo

2
@Programmdude Và mọi người đã đúng. Cuộc cách mạng công nghiệp đã thay đổi mọi thứ về cách sống của mọi người, nó cực kỳ đột phá về sự phân phối của cải và khả năng của mọi người tồn tại trên thu nhập của trang trại. Từ quan điểm khác: Các chủ sở hữu nô lệ nhìn lại từ vài trăm năm trong tương lai có thể sẽ không thấy tác động của AI trong giai đoạn này là gián đoạn kể từ khi nó hình thành tình huống của họ.
Bill K

@BillK Tôi đã ở bên bạn cho đến khi nói về chủ sở hữu nô lệ. Bạn có biết rằng AI không tự nhận thức, phải không?
Ray

@Ray Tôi không có nghĩa là AI, tôi có nghĩa là những người kiểm soát AI (Và do đó sẽ có tất cả sự giàu có), và thực sự đó chỉ là một cách để chỉ ra rằng mọi thứ có thể khác biệt với chúng tôi nhưng nó sẽ không ' t cảm thấy rằng nhìn lại khác nhau.
Bill K

5

Tôi có một ví dụ đi ngược lại với nỗi sợ hãi của công chúng, nhưng là một điều rất thực tế, điều mà tôi đã thấy xảy ra. Nó không dành riêng cho AI, nhưng tôi nghĩ nó sẽ trở nên tồi tệ hơn thông qua AI. Đó là vấn đề con người tin tưởng vào kết luận AI một cách mù quáng trong các ứng dụng quan trọng.

Chúng tôi có nhiều lĩnh vực trong đó các chuyên gia về con người có nghĩa vụ phải đưa ra quyết định. Lấy ví dụ về thuốc - chúng ta nên cho thuốc X hay thuốc Y? Các tình huống tôi có trong đầu thường là những vấn đề phức tạp (theo nghĩa của Cynefin), đó là một điều thực sự tốt khi có ai đó chú ý rất kỹ và sử dụng nhiều chuyên môn, và kết quả thực sự quan trọng.

Có nhu cầu cho các nhà thông tin y tế viết các hệ thống hỗ trợ quyết định cho loại vấn đề này trong y học (và tôi cho rằng cùng loại trong các lĩnh vực khác). Họ làm hết sức mình, nhưng kỳ vọng luôn là một chuyên gia về con người sẽ luôn xem xét đề xuất của hệ thống giống như một ý kiến ​​nữa khi đưa ra quyết định. Trong nhiều trường hợp, sẽ là vô trách nhiệm khi hứa bất cứ điều gì khác, với tình trạng kiến ​​thức và các tài nguyên có sẵn cho các nhà phát triển. Một ví dụ điển hình sẽ là việc sử dụng thị giác máy tính trong X quang: một bệnh nhân được chụp CT và AI phải xử lý hình ảnh và quyết định xem bệnh nhân có khối u hay không.

Tất nhiên, AI không hoàn hảo. Ngay cả khi được đo theo tiêu chuẩn vàng, nó không bao giờ đạt được độ chính xác 100%. Và sau đó, có tất cả các trường hợp nó hoạt động tốt so với các số liệu mục tiêu của riêng mình, nhưng vấn đề phức tạp đến mức số liệu mục tiêu không nắm bắt được nó - tôi không thể nghĩ ra một ví dụ trong bối cảnh CT, nhưng tôi đoán chúng ta thấy nó ngay cả ở đây trên SE, nơi các thuật toán ủng hộ sự phổ biến trong các bài đăng, đó là một proxy không hoàn hảo cho tính chính xác thực tế.

Có lẽ bạn đang đọc đoạn cuối đó và gật đầu, "Vâng, tôi đã học được điều đó trong khóa học ML giới thiệu đầu tiên tôi đã tham gia". Đoán xem cái gì? Các bác sĩ không bao giờ tham gia một khóa học ML giới thiệu. Họ hiếm khi có đủ kiến ​​thức thống kê để hiểu kết luận của các bài báo xuất hiện trên các tạp chí y khoa. Khi họ nói chuyện với bệnh nhân thứ 27 của họ, 7 giờ vào ca 16 giờ của họ, đói và kiệt sức về mặt cảm xúc, và CT không có vẻ gì rõ ràng, nhưng máy tính nói "đó không phải là bệnh ác tính", họ không mất thêm mười phút để tập trung vào hình ảnh nhiều hơn, hoặc tra cứu sách giáo khoa hoặc tham khảo ý kiến ​​của đồng nghiệp. Họ chỉ đi với những gì máy tính nói, biết ơn rằng tải nhận thức của họ không tăng vọt nữa. Vì vậy, họ chuyển từ trở thành chuyên gia thành người đọc một cái gì đó trên màn hình. Tệ hơn ở một số bệnh viện, chính quyền không chỉ tin tưởng vào máy tính mà còn phát hiện ra rằng chúng là vật tế thần tiện lợi. Vì vậy, một bác sĩ có linh cảm xấu đi ngược lại đầu ra của máy tính, họ trở nên khó khăn khi hành động theo linh cảm đó và tự bảo vệ mình rằng họ đã chọn để vượt qua ý kiến ​​của AI.

AI là những công cụ mạnh mẽ và hữu ích, nhưng sẽ luôn có những nhiệm vụ mà chúng không thể thay thế người bảo vệ công cụ.


Nếu bạn đang tìm kiếm nhiều ví dụ, tranh cãi xung quanh việc sử dụng máy học để dự đoán tỷ lệ tái cấp vốn của những người nộp đơn xin tại ngoại hoặc tạm tha là một vấn đề tốt. Tôi đồng ý rằng chúng ta không nên mong đợi các bác sĩ và thẩm phán có trình độ chuyên môn thống kê cần thiết để hiểu về AI, bên cạnh chuyên môn y tế và pháp lý của họ. Các nhà thiết kế AI nên nhận thức được sự sai lầm của thuật toán của họ và cung cấp hướng dẫn rõ ràng cho người dùng. Có thể cho bác sĩ biết nơi để xem CT scan thay vì trực tiếp cho họ kết quả.
craq

4

Điều này chỉ có ý định bổ sung cho các câu trả lời khác vì vậy tôi sẽ không thảo luận về khả năng AI cố gắng làm nô lệ nhân loại.

Nhưng một rủi ro khác đã ở đây. Tôi sẽ gọi nó là công nghệ chưa được quản lý . Tôi đã được dạy về khoa học và công nghệ, và IMHO, AI tự nó không có khái niệm tốt và xấu, cũng không tự do. Nhưng nó được xây dựng và sử dụng bởi con người và do đó hành vi phi lý trí có thể được tham gia.

Tôi sẽ bắt đầu với một ví dụ thực tế liên quan nhiều đến CNTT nói chung hơn là AI. Tôi sẽ nói về virus hoặc các phần mềm độc hại khác. Máy tính là những cỗ máy khá ngu ngốc, tốt để xử lý nhanh dữ liệu. Vì vậy, hầu hết mọi người dựa vào họ. Một số người (xấu) phát triển phần mềm độc hại sẽ phá vỡ hoạt động chính xác của máy tính. Và tất cả chúng ta đều biết rằng chúng có thể có những tác động khủng khiếp đối với các tổ chức vừa và nhỏ không được chuẩn bị tốt cho việc mất máy tính.

AI dựa trên máy tính nên dễ bị tấn công kiểu máy tính. Ở đây ví dụ của tôi sẽ là một chiếc xe điều khiển AI. Công nghệ gần như đã sẵn sàng để làm việc. Nhưng hãy tưởng tượng tác động của một phần mềm độc hại khiến chiếc xe cố gắng tấn công người khác trên đường. Ngay cả khi không có quyền truy cập trực tiếp vào mã của AI, nó có thể bị tấn công bởi các kênh bên . Ví dụ, nó sử dụng máy ảnh để đọc các dấu hiệu tín hiệu. Nhưng do cách thức học máy được thực hiện, nên AI không phân tích cảnh giống như cách con người làm. Các nhà nghiên cứu đã chỉ ra rằng có thể thay đổi một dấu hiệu theo cách mà một người bình thường vẫn sẽ nhìn thấy dấu hiệu ban đầu, nhưng một AI sẽ nhìn thấy một dấu hiệu khác. Bây giờ hãy tưởng tượng rằng biển báo là biển báo ưu tiên đường ...

Ý tôi là ngay cả khi AI không có ý định xấu xa, kẻ xấu có thể cố gắng khiến nó hành xử tồi tệ. Và những hành động quan trọng hơn sẽ được giao cho AI (trung gian, ô tô, máy bay, không nói về bom) thì nguy cơ càng cao. Nói cách khác, tôi không thực sự sợ AI cho chính nó, nhưng đối với cách nó có thể được sử dụng bởi con người.


3

Tôi nghĩ rằng một trong những rủi ro thực sự nhất (tức là liên quan đến các AI hiện tại, hiện tại) đang phụ thuộc một cách mù quáng vào các AI không được giám sát, vì hai lý do.

1. Hệ thống AI có thể xuống cấp

Lỗi vật lý trong các hệ thống AI có thể bắt đầu tạo ra kết quả sai nghiêm trọng ở các khu vực mà chúng không được kiểm tra vì hệ thống vật lý bắt đầu cung cấp các giá trị sai. Điều này đôi khi được chuộc lại bằng cách tự kiểm tra và dự phòng, nhưng vẫn cần có sự giám sát của con người.

AI tự học cũng có một điểm yếu về phần mềm - mạng trọng lượng hoặc biểu diễn thống kê của chúng có thể tiếp cận cực tiểu địa phương nơi chúng bị mắc kẹt với một kết quả sai.

2. Hệ thống AI thiên vị

Điều này may mắn được thảo luận thường xuyên, nhưng đáng nói đến: phân loại đầu vào của các hệ thống AI thường bị sai lệch vì tập dữ liệu huấn luyện / kiểm tra cũng bị sai lệch. Điều này dẫn đến việc AI không nhận ra những người thuộc dân tộc nhất định, ví dụ rõ ràng hơn. Tuy nhiên, có những trường hợp ít rõ ràng hơn chỉ có thể được phát hiện sau một số tai nạn tồi tệ, chẳng hạn như AI không nhận ra dữ liệu nhất định và vô tình bắt đầu bắn trong nhà máy, phá vỡ thiết bị hoặc làm tổn thương mọi người.


Đây là một câu trả lời tốt, đương đại. AI "hộp đen" như các mạng thần kinh không thể kiểm tra một cách tuyệt đối, điều này khiến chúng có thể dự đoán dưới 100% - và bằng cách mở rộng, độ tin cậy thấp hơn 100%. Chúng ta không bao giờ biết khi nào AI sẽ phát triển một chiến lược thay thế cho một vấn đề nhất định và chiến lược thay thế này sẽ ảnh hưởng đến chúng ta như thế nào và đây là một vấn đề thực sự lớn nếu chúng ta muốn dựa vào AI cho các nhiệm vụ quan trọng như lái xe hoặc quản lý tài nguyên.
laatteryot

1

Nếu một robot giống với giao diện máy của con người thì thiết bị giống như một chiếc xe được điều khiển từ xa. Có thể thảo luận với nhà điều hành đằng sau cần điều khiển và đàm phán về một hành vi mong muốn. Robot điều khiển từ xa là những phát minh an toàn vì hành động của chúng có thể được truy nguyên từ con người và động lực của chúng có thể được dự đoán trước. Chúng có thể được sử dụng để cải thiện cuộc sống hàng ngày, và thật vui khi chơi với chúng.

Ngược lại, một số robot không được điều khiển bằng cần điều khiển mà đang làm việc với một máy tạo xúc xắc bên trong. Đồ chơi súc sắc được biết đến từ vai trò xã hội của nó trong cờ bạc nhưng nó cũng có một ý nghĩa thần bí. Thông thường, một máy phát ngẫu nhiên được kết nối mạnh mẽ với hành vi hỗn loạn được điều khiển bởi các thế lực đen tối bên ngoài ảnh hưởng của con người. Một con xúc xắc điện tử được tích hợp trong robot và được cải tiến với thuật toán học tập trái ngược với giao diện máy của con người, nhưng đó là kẻ gây rối tiềm năng vì robot được điều khiển ngẫu nhiên sẽ chơi trò chơi với con người không thể lường trước được. Không thể dự đoán số xúc xắc tiếp theo, do đó robot cũng sẽ hành xử đột ngột.

Mối liên hệ giữa các trò chơi được kiểm soát ngẫu nhiên và tác động xã hội tiêu cực đã được giải thích trong câu sau.

trích dẫn: Quảng Trong nhiều xã hội phi phương Tây truyền thống, những người đánh bạc có thể cầu nguyện cho các vị thần thành công và giải thích những chiến thắng và thua lỗ về ý chí thiêng liêng. Cúc Binde, Per. "Đánh bạc và tôn giáo: Lịch sử của sự hòa hợp và xung đột." Tạp chí các vấn đề đánh bạc 20 (2007): 145-165.


1

Con người hiện đang tồn tại trong một phân khúc kinh tế sinh thái của "điều cần suy nghĩ".

AI cũng là một điều đáng suy nghĩ, vì vậy nó sẽ xâm chiếm thị trường kinh tế sinh thái của chúng ta. Trong cả sinh thái học và kinh tế học, có một thứ khác chiếm lĩnh thị trường của bạn không phải là một kế hoạch tuyệt vời để tiếp tục tồn tại.

Làm thế nào chính xác sự sống sót của con người bị tổn hại bởi điều này sẽ khá hỗn loạn. Sẽ có một loạt các cách hợp lý mà AI có thể gây nguy hiểm cho sự tồn tại của con người như một loài, hoặc thậm chí là một dạng sống thống trị.


Giả sử có một AI mạnh mẽ mà không có "siêu đạo đức", sản xuất rẻ hơn con người (bao gồm sản xuất "cơ thể" hoặc cách thao túng thế giới), và thông minh hoặc thông minh hơn con người.

Đây là trường hợp chúng ta bắt đầu cạnh tranh với AI đó để lấy tài nguyên. Nó sẽ xảy ra trên quy mô kinh tế vi mô (chúng ta có thuê một con người, hoặc mua / xây dựng / thuê / thuê một AI để giải quyết vấn đề này không?). Tùy thuộc vào tốc độ AI trở nên rẻ và / hoặc thông minh hơn con người, điều này có thể xảy ra chậm (có thể là một ngành tại một thời điểm) hoặc cực kỳ nhanh.

Trong một cuộc cạnh tranh tư bản, những người không chuyển sang các AI rẻ hơn sẽ bị cạnh tranh.

Bây giờ, trong ngắn hạn, nếu lợi thế của AI chỉ là cận biên, thì chi phí giáo dục con người cao trong 20 năm trước khi chúng trở nên hiệu quả có thể khiến quá trình này chậm lại. Trong trường hợp này, có thể đáng để trả cho một Bác sĩ trên mức lương chết đói để chẩn đoán bệnh thay vì AI, nhưng có lẽ không đáng để trả các khoản vay sinh viên của họ. Vì vậy, các Bác sĩ mới của con người sẽ nhanh chóng ngừng được đào tạo, và các Bác sĩ hiện tại sẽ bị bần cùng hóa. Sau đó hơn 20-30 năm AI sẽ thay thế hoàn toàn các Bác sĩ cho mục đích chẩn đoán.

Nếu lợi thế của AI là lớn, thì nó sẽ nhanh chóng. Các bác sĩ thậm chí sẽ không đáng để trả tiền lương ở mức nghèo để làm chẩn đoán cho con người. Bạn có thể thấy điều gì đó tương tự xảy ra với canh tác dựa trên cơ bắp khi canh tác dựa trên xăng dầu đã qua.

Trong các cuộc cách mạng công nghiệp trong quá khứ, thực tế là con người nơi có thể suy nghĩ có nghĩa là bạn có thể tái sử dụng những người lao động dư thừa để làm những hành động khác; dây chuyền sản xuất, công việc kinh tế dịch vụ, lập trình máy tính, v.v. Nhưng trong mô hình này, AI rẻ hơn để đào tạo và xây dựng và thông minh hoặc thông minh hơn con người ở loại công việc đó.

Bằng chứng là mùa xuân Ả Rập do ethanol gây ra, cây trồng và đất trồng trọt có thể được sử dụng để cung cấp nhiên liệu cho cả máy móc và con người. Khi máy móc hoạt động hiệu quả hơn trong việc biến đất trồng trọt thành công việc hữu ích, bạn sẽ bắt đầu thấy giá lương thực tăng cao. Điều này thường dẫn đến bạo loạn, vì mọi người thực sự không thích chết đói và sẵn sàng mạo hiểm mạng sống của họ để lật đổ chính phủ để ngăn chặn điều này.

Bạn có thể làm dịu người dân bằng cách cung cấp thực phẩm được trợ cấp và những thứ tương tự. Chừng nào điều này không làm tê liệt về mặt kinh tế (nghĩa là, nếu đủ đắt, nó có thể dẫn đến việc bạn bị cạnh tranh bởi những nơi khác không làm điều này), điều này chỉ không ổn định về mặt chính trị.

Thay vào đó, trong ngắn hạn, đẳng cấp sở hữu đang nhận được lợi nhuận từ nền kinh tế do AI điều hành ngày càng hiệu quả có thể trả tiền cho một cảnh sát hoặc đẳng cấp quân sự để dập tắt các cuộc bạo loạn nói trên. Điều này đòi hỏi các cảnh sát / quân đội phải từ trên xuống dưới đến tầng lớp trung lưu về mức sống, để đảm bảo sự trung thành liên tục - bạn không muốn họ tham gia vào những kẻ bạo loạn.

Vì vậy, một trong những trung tâm lợi nhuận mà bạn có thể đặt AI hướng tới là quân sự và chính sách dựa trên AI. Máy bay không người lái cung cấp vật liệu gây chết người và không gây chết người dựa trên việc xử lý các nguồn cấp dữ liệu trực quan và dữ liệu khác có thể làm giảm số lượng cảnh sát / quân đội trung lưu cần thiết để dập tắt các cuộc bạo loạn về giá lương thực hoặc sự bất ổn khác. Như chúng ta đã giả định rằng AI có thể có cơ thể và đào tạo rẻ hơn con người sinh học, điều này cũng có thể làm tăng lượng lực bạn có thể triển khai cho mỗi đô la chi tiêu.

Tại thời điểm này, chúng ta đang nói về một cảnh sát và quân đội chủ yếu là AI được sử dụng để giữ cho con người không bị lật đổ nền kinh tế do AI điều hành và thu giữ các phương tiện sản xuất từ ​​việc sử dụng hiệu quả hơn hiện đang được áp dụng.

Những người di tích "sở hữu" hệ thống hàng đầu đang đưa ra quyết định hợp lý tại địa phương để tối ưu hóa sự giàu có và quyền lực của họ. Họ có thể hoặc không thể tồn tại lâu dài; miễn là chúng tiêu hao một lượng tài nguyên tương đối nhỏ và không làm xáo trộn nền kinh tế do AI điều hành, sẽ không có nhiều áp lực lựa chọn để loại bỏ chúng. Mặt khác, vì họ không đóng góp gì về giá trị, họ đặt vị trí "ở trên đỉnh" là không ổn định về mặt chính trị.

Quá trình này giả định một AI chung "mạnh". AI hẹp hơn có thể kéo nó ra thành từng mảnh. Chẳng hạn, một máy tính chẩn đoán hiệu quả, rẻ tiền có thể giảm hầu hết các Bác sĩ vào tình trạng nghèo đói trong một khoảng thời gian ngắn đáng ngạc nhiên. Xe tự lái có thể nuốt 5% -10% nền kinh tế. Công nghệ thông tin đã nuốt chửng lĩnh vực bán lẻ với AI khiêm tốn.

Người ta nói rằng mọi tiến bộ công nghệ đều dẫn đến việc làm ngày càng tốt hơn cho con người. Và điều này đã đúng trong hơn 300 năm qua.

Nhưng trước năm 1900, cũng đúng là mọi tiến bộ công nghệ đều dẫn đến việc làm ngày càng tốt hơn cho ngựa. Sau đó, ICE và ô tô đã đến, và bây giờ có rất ít ngựa làm việc; những con ngựa còn lại về cơ bản tương đương với những người hầu cá nhân của con người: được giữ cho sự mới lạ của "wow, cool, ngựa" và niềm vui cưỡi và điều khiển một con vật khổng lồ.


1

Ngoài nhiều câu trả lời đã được cung cấp, tôi sẽ đưa ra vấn đề về các ví dụ đối nghịch trong lĩnh vực mô hình hình ảnh.

Các ví dụ về nghịch cảnh là những hình ảnh đã bị nhiễu với nhiễu được thiết kế đặc biệt thường không thể nhận ra đối với người quan sát, nhưng làm thay đổi mạnh mẽ dự đoán của một mô hình.

Những ví dụ bao gồm:


0

AI được sử dụng để giải quyết vấn đề trong thế giới thực có thể gây rủi ro cho nhân loại và không thực sự đòi hỏi sự đa cảm, điều này cũng đòi hỏi một mức độ ngu ngốc của con người ..

Không giống như con người, một AI sẽ tìm thấy câu trả lời hợp lý nhất mà không bị ràng buộc bởi cảm xúc, đạo đức hay thậm chí là tham lam ... Chỉ có logic. Hỏi AI này cách giải quyết vấn đề mà con người tạo ra (ví dụ: Biến đổi khí hậu) và giải pháp của nó có thể là loại bỏ toàn bộ loài người để bảo vệ hành tinh. Rõ ràng điều này sẽ đòi hỏi phải cho AI khả năng hành động theo kết quả của nó, điều đó đưa tôi đến điểm trước đó, sự ngu ngốc của con người.


0

Trí thông minh nhân tạo có thể gây hại cho chúng ta theo bất kỳ cách nào của trí thông minh tự nhiên (của con người). Sự khác biệt giữa trí thông minh tự nhiên và nhân tạo sẽ tan biến khi con người bắt đầu tăng cường thân mật hơn. Trí thông minh có thể không còn đặc trưng cho bản sắc và sẽ trở thành một sở hữu vô hạn. Những tác hại gây ra sẽ càng nhiều con người có thể chịu đựng để giữ gìn bản sắc tiến hóa của họ.


0

Rất ít người nhận ra rằng nền kinh tế toàn cầu của chúng ta nên được coi là một AI: - Các giao dịch tiền là tín hiệu trên một mạng lưới thần kinh. Các nút trong mạng lưới thần kinh sẽ là các tập đoàn hoặc người tư nhân khác nhau trả hoặc nhận tiền. - Nó là do con người tạo ra nên đủ điều kiện là nhân tạo

Mạng lưới thần kinh này tốt hơn trong nhiệm vụ của nó sau đó là con người: Chủ nghĩa tư bản luôn chiến thắng trước nền kinh tế do con người hoạch định (nền kinh tế kế hoạch).

Mạng lưới thần kinh này có nguy hiểm không? Có thể khác nhau nếu bạn là CEO kiếm tiền lớn so với một ngư dân trong một dòng sông bị ô nhiễm bởi chất thải của công ty.

Làm thế nào mà AI này trở nên nguy hiểm? Bạn có thể trả lời nó là vì lòng tham của con người. Sáng tạo của chúng tôi phản ánh chính chúng ta. Nói cách khác: chúng tôi đã không đào tạo mạng lưới thần kinh của mình để cư xử tốt. Thay vì đào tạo mạng lưới thần kinh để cải thiện chất lượng cuộc sống cho tất cả mọi người, chúng tôi đã đào tạo nó để làm cho những trò đùa giàu có trở nên phong phú hơn.

Sẽ dễ dàng để đào tạo AI này không còn nguy hiểm? Có lẽ không, có lẽ một số AI chỉ lớn hơn cuộc sống. Nó chỉ là sự sống còn của kẻ mạnh nhất.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.