Eliezer Yudkowsky cytaty
strona 2

Eliezer Shlomo Yudkowsky – amerykański badacz sztucznej inteligencji, szczególnie technologicznej osobliwości i propagator Friendly artificial intelligence .

Yudkowsky nie uczęszczał na uniwersytet i w dziedzinie sztucznej inteligencji jest samoukiem bez formalnego wykształcenia. Nie stosuje się do systemu akademickiego.

Jest współzałożycielem i badaczem w Singularity Institute for Artificial Intelligence . Yudkowsky jest autorem następujących publikacji SIAI: „Creating Friendly AI” , „Levels of Organization in General Intelligence” , „Coherent Extrapolated Volition” , and „Timeless Decision Theory” .

Badania Yudkowsky’ego skupiają się na tych aspektach sztucznej inteligencji, które pomagają w zrozumieniu samego siebie, modyfikacji samego siebie, i okresowemu samodoskonaleniu ; oraz na architekturze sztucznej inteligencji sprzyjającej stabilnym dobrowolnym strukturom motywacyjnym . Poza pracami badawczymi, Yudkowsky pisze, używając języka nie-akademickiego, artykuły wyjaśniające rozmaite kwestie filozoficzne, zwłaszcza na temat racjonalności, np. „An Intuitive Explanation of Bayes' Theorem”.

Yudkowsky jest też autorem kilku dzieł science fiction i innych z gatunku fikcji literackiej. Jego historia o Harrym Potterze z gatunku fan fiction, Harry Potter and the Methods of Rationality, dotycząca kwestii kognitywistyki i racjonalizmu, zyskała przychylną recenzję pisarza Davida Brina a także programisty FLOSS, Erica S. Raymonda. Harry Potter and the Methods of Rationality jest jedną z najpopularniejszych książek na portalu FanFiction.net, budzącą kontrowersje wśród fanów Harry’ego Pottera.

Jest autorem dwóch rozdziałów w tomie Global Catastrophic Risks, pod redakcją filozofa z Oxfordu Nicka Bostroma oraz Milana Ćirkovicia.

Yudkowsky, wraz z Robinem Hansonem, był jednym z głównych autorów bloga Overcoming Bias sponsorowanego przez Future of Humanity Institute na Oxford University. Z początkiem 2009 pomógł w założeniu Less Wrong, „bloga społecznościowego poświęconego kształtowaniu sztuki ludzkiej racjonalności” .

Mieszka w Redwood City w Kalifornii. Wikipedia  

✵ 11. Wrzesień 1979
Eliezer Yudkowsky Fotografia
Eliezer Yudkowsky: 56   Cytatów 0   Polubień

Eliezer Yudkowsky: Cytaty po angielsku

“If you want to build a recursively self-improving AI, have it go through a billion sequential self-modifications, become vastly smarter than you, and not die, you've got to work to a pretty precise standard.”

Question 12 in Less Wrong Q&A with Eliezer Yudkowsky (January 2010) http://lesswrong.com/lw/1lq/less_wrong_qa_with_eliezer_yudkowsky_video_answers/

“And someday when the descendants of humanity have spread from star to star, they won't tell the children about the history of Ancient Earth until they're old enough to bear it; and when they learn they'll weep to hear that such a thing as Death had ever once existed!”

Eliezer Yudkowsky Harry Potter and the Methods of Rationality

Ch. 45 http://www.fanfiction.net/s/5782108/45/Harry_Potter_and_the_Methods_of_Rationality
Harry Potter and the Methods of Rationality (2010 - 2015)

“To confess your fallibility and then do nothing about it is not humble; it is boasting of your modesty.”

Twelve Virtues Of Rationality http://yudkowsky.net/rational/virtues

“If cryonics were a scam it would have far better marketing and be far more popular.”

A comment on reddit (2009) http://www.reddit.com/r/atheism/comments/7g5ea/if_you_dont_believe_in_god_or_an_afterlife_would/c06ktil

“When you are older, you will learn that the first and foremost thing which any ordinary person does is nothing.”

Eliezer Yudkowsky Harry Potter and the Methods of Rationality

Professor Quirrell in Ch. 73 http://hpmor.com/chapter/73
Harry Potter and the Methods of Rationality (2010 - 2015)

“The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.”

Artificial Intelligence as a Positive and Negative Factor in Global Risk http://singinst.org/upload/artificial-intelligence-risk.pdf (August 2006)

“The people I know who seem to make unusual efforts at rationality, are unusually honest, or, failing that, at least have unusually bad social skills.”

Honesty: Beyond Internal Truth (June 2009) http://lesswrong.com/lw/101/honesty_beyond_internal_truth/

“I am tempted to say that a doctorate in AI would be negatively useful, but I am not one to hold someone’s reckless youth against them – just because you acquired a doctorate in AI doesn’t mean you should be permanently disqualified.”

So You Want To Be A Seed AI Programmer http://web.archive.org/web/20101227203946/http://www.acceleratingfuture.com/wiki/So_You_Want_To_Be_A_Seed_AI_Programmer

“Rationality is the master lifehack which distinguishes which other lifehacks to use.”

Epistle to the New York Less Wrongians (April 2011) http://lesswrong.com/lw/5c0/epistle_to_the_new_york_less_wrongians/