Eliezer Shlomo Yudkovsky là một chuyên gia người Mỹ về trí tuệ nhân tạo, người nghiên cứu các vấn đề về sự kỳ dị công nghệ và ủng hộ việc tạo ra AI thân thiện. Ông là tác giả của một số câu chuyện khoa học viễn tưởng, trong đó ông minh họa một số chủ đề liên quan đến khoa học nhận thức và tính hợp lý.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: tiểu sử
Eliezer Shlomo Yudkovsky là một trong những nhà duy lý tích cực nhất của nước Mỹ hiện đại, một nhà nghiên cứu máy tính và phổ biến ý tưởng về "trí tuệ nhân tạo thân thiện".
Sinh ngày 11 tháng 9 năm 1979. Đồng sáng lập và nhà nghiên cứu tại tổ chức nghiên cứu phi chính phủ, Viện nghiên cứu về trí thông minh máy, nơi xuất bản sách của ông. Eliezer Yudkovsky là tác giả của tiểu thuyết triết học Harry Potter và Phương pháp duy lý, được xuất bản trong các phần trên Internet từ năm 2010 đến 2015. Trong đó, Harry lớn lên trong gia đình của một nhà khoa học Oxford và trước khi đến Hogwarts, anh đã học được từ anh những phương pháp suy nghĩ hợp lý.
Theo như được biết, nó không có mối liên hệ nào với vòng tròn của những người theo chủ nghĩa hiện thực đầu cơ. Tên ông thường được nhắc đến liên quan đến Robin Hanson, trong vài năm (từ 2006 đến 2009), họ là hai tác giả chính của blog "Vượt qua định kiến", tồn tại trên tiền của Viện Nhân loại Tương lai ở Oxford.
Đôi khi tên của Yudkovsky có thể được nghe thấy liên quan đến Raymond Kurzweil. Ông là một đại diện triết học của cộng đồng những người đam mê công nghệ, không thể tiếp cận và không thể hiểu được, do đó, đối với phần lớn công chúng nhân đạo, mà hầu hết tất cả các độc giả của các nhà hiện thực đầu cơ thuộc về. Không có gì đáng ngạc nhiên, bởi vì anh ta thường chuyển sang ngôn ngữ logic và toán học, kết luận xác suất và thống kê, tiếp xúc bằng cách sử dụng các công thức và bảng biểu.
Lợi ích khoa học
Yudkovsky là người đồng sáng lập và nghiên cứu tại Viện trí tuệ nhân tạo Singularity (SIAI). Ông đã đóng góp rất lớn cho sự phát triển của viện. Ông là tác giả của cuốn sách "Tạo AI thân thiện" (2001), các bài viết "Các cấp độ tổ chức trong trí thông minh chung" (2002), "Ý chí ngoại suy mạch lạc" ("Ý chí ngoại suy mạch lạc", 2004) và Lý thuyết quyết định vượt thời gian (2010). Các ấn phẩm khoa học mới nhất của ông là hai bài viết trong bộ sưu tập rủi ro thảm họa toàn cầu (2008) do Nick Bostrom biên soạn, cụ thể là Trí thông minh nhân tạo như một nhân tố rủi ro toàn cầu tích cực và tiêu cực trong đánh giá rủi ro toàn cầu. Yudkovsky không học tại các trường đại học và là một người tự động không có giáo dục chính thức trong lĩnh vực AI.
Yudkovsky khám phá các thiết kế AI có khả năng tự hiểu, tự sửa đổi và tự cải thiện đệ quy (Seed AI), cũng như các kiến trúc AI sẽ có cấu trúc động lực ổn định và tích cực (Trí tuệ nhân tạo thân thiện). Ngoài công việc nghiên cứu của mình, Yudkovsky còn được biết đến với những giải thích về các mô hình phức tạp bằng ngôn ngữ phi học thuật, có thể tiếp cận được với nhiều độc giả, ví dụ, xem bài viết của ông Một cách giải thích trực quan về Định lý Bayes.
Yudkovsky, cùng với Robin Hanson, là một trong những tác giả chính của blog Vượt qua (vượt qua định kiến). Đầu năm 2009, anh tham gia vào tổ chức blog Less Wrong, nhằm mục đích "phát triển sự hợp lý của con người và khắc phục những biến dạng về nhận thức". Sau đó, Vượt qua Bias đã trở thành blog cá nhân của Hanson. Các tài liệu được trình bày trên các blog này được tổ chức dưới dạng chuỗi các bài đăng thu hút hàng ngàn độc giả - ví dụ, xem chuỗi lý thuyết giải trí.
Yudkovsky là tác giả của một số câu chuyện khoa học viễn tưởng, trong đó ông minh họa một số chủ đề liên quan đến khoa học nhận thức và tính hợp lý.
Sự nghiệp
- 2000. Yudkovsky thành lập Viện Singularity (sau đổi tên thành MIRI).
- 2006. Yudkovsky tham gia blog tập thể Vượt qua và bắt đầu viết các văn bản mà sau này trở thành Chuỗi.
- 2009. Dựa trên các mục của Yudkovsky trên mục Vượt qua thiên vị, blog tập thể nổi tiếng LessWrong.com được tạo ra.
- 2010-2015. Yudkovsky viết GPiMRM.
- 2013. Yudkovsky xuất bản các bài đăng mới nhất trên LessWrong.com và ngừng viết trên trang web. Kể từ năm 2017, Yudkovsky xuất bản hầu hết các văn bản có sẵn công khai trên Facebook và Arbital
Thử nghiệm tư duy
Hãy tưởng tượng một siêu trí tuệ nhân tạo cực kỳ thông minh bị nhốt trong một thế giới ảo - giả sử, chỉ trong một snuffbox. Bạn không biết anh ấy sẽ có ý nghĩa, thân thiện hay trung lập. Tất cả những gì bạn biết là anh ấy muốn ra khỏi hộp và bạn có thể tương tác với anh ấy thông qua giao diện văn bản. Nếu AI thực sự siêu thông minh, bạn có thể nói chuyện với anh ta trong năm giờ và không chịu khuất phục trước sự thuyết phục và thao túng của anh ta - không mở snuffbox?
Thí nghiệm suy nghĩ này được đề xuất bởi Eliezer Yudkowsky, một nhà nghiên cứu tại Viện Nghiên cứu Kỹ thuật Kỹ thuật (MIRI). MIRI có nhiều nhà khoa học đang khám phá những rủi ro của việc phát triển siêu trí tuệ nhân tạo; Mặc dù nó chưa xuất hiện nhưng nó đã thu hút sự chú ý và tranh luận sôi nổi.
Yudkovsky lập luận rằng siêu trí tuệ nhân tạo có thể nói mọi thứ có thể để thuyết phục bạn: suy luận cẩn thận, đe dọa, lừa dối, xây dựng mối quan hệ, đề xuất tiềm thức, v.v. Với tốc độ ánh sáng, AI xây dựng cốt truyện, thăm dò điểm yếu và xác định cách dễ dàng nhất để thuyết phục bạn. Như nhà lý thuyết mối đe dọa hiện sinh Nick Bostrom đã nói, "chúng ta phải tin rằng siêu trí tuệ có thể đạt được mọi thứ mà nó đặt ra như là mục tiêu của nó."
Thí nghiệm AI của snuffbox đặt ra nghi ngờ về khả năng kiểm soát những gì chúng ta có thể tạo ra. Nó cũng khiến chúng ta hiểu được những khả năng khá kỳ quái của những gì chúng ta không biết về thực tế của chính mình.