Eliezer Yudkowsky idézet
oldal 2

Eliezer Yudkowsky - Nincs több információnk a szerzőről.

✵ 11. szeptember 1979
Eliezer Yudkowsky fénykép
Eliezer Yudkowsky: 64   idézetek 0   Kedvelés

Eliezer Yudkowsky híres idézetei

„Társadalmunk széthullhat, ahogy néhanyan kihaszálva a folyamatosan megújuló technológiákat eltűnnek az eseményhorizont mögött, míg mások hátramaradva, bár érzik a gyorsuló technológiák hatalmas gravitációs erejét, nem képesek látni azt. Így a világ csak azok számára lesz érthető, akik közel állnak a legújabb technológiákhoz.”

Eredeti: Society itself could be dismembered, as some people ride the breaking wave of every-newer technology over the event horizon into invisibility, while others lag behind, feeling the powerful gravitational force of still-accelerating technology, but no longer able to see it. Thus the world would be comprehensible only to those near the leading edges of technology.

„Az evolúció a tervezés és tesztelés egy olyan szélsőséges esete, amelyben az intelligencia nulla.”

Eredeti: Evolution is the degenerate case of design-and-test where intelligence equals zero.

„A programkód nem varázslat. Csak egy nagyon drága és időpazarló módja annak, hogy kitaláld azt, hogy mit nem tudsz.”

Eredeti: Code is not magic. It is just a very expensive and time-consuming way to find out what you don't know.

„Egy mag-MI rendelkezhetne egy "kód-kortexszel", egy érzékelési csatornával, amely csak a programoknak van szentelve. Programoknak szentelt megérzések, ösztönök, és olyan képességek amelyek által magas absztrakciós szintű megfigyeléseket képes tenni a kódról és intuitív módon képes vizualizálni a kód által leírt részleteket.”

Eredeti: A seed AI could have a "codic cortex", a sensory modality devoted to code, with intuitions and instincts devoted to code, and the ability to abstract higher-level concepts from code and intuitively visualize complete models detailed in code.

„Ha azt mondod magadról, hogy a Crocker-szabály szerint kommunikálsz, az azt jelenti, hogy megengeded másoknak, hogy az üzeneteiket információtartalomra optimalizálják, nem pedig arra, hogy kedvesek legyenek hozzád. A Crocker-szabály alkalmazása azt jelenti, hogy teljes felelősséget vállalsz az elméd működéséért: Ha sértve érzed magad, az a te hibád.”

Eredeti: Declaring yourself to be operating by " Crocker's Rules http://sl4.org/crocker.html" means that other people are allowed to optimize their messages for information, not for being nice to you. Crocker's Rules means that you have accepted full responsibility for the operation of your own mind - if you're offended, it's your fault.

„Általában alábecsüljük a közöttünk és mások között lévő különbségeket. Nem csak a következtetésekbeli különbségeket, de a természet és képességbeli különbségeket, a helyzet és erőforrásbeli különbségeket, az észrevehetetlen tudás, készség és szerencsebeli különbségeket, és a belső tájképbeli különbségeket.”

Eredeti: We underestimate the distance between ourselves and others. Not just inferential distance, but distances of temperament and ability, distances of situation and resource, distances of unspoken knowledge and unnoticed skills and luck, distances of interior landscape.

„Minden generációban elhangzik ugyanaz a kifogás: "Nem, ebben az esetben *ez* tényleg túl rejtélyes ahhoz, hogy a tudomány megértse." A gyerekek manapság egy olyan világban nőnek fel, ahol a csillagok, a kémia és az élet egyszerű dolgoknak tűnnek, és az előző generációk pedig ügyetlen misztikusoknak. És amikor találkoznak valamivel, amit *tényleg* nem tudnak megmagyarázni, mint például a tudat működése, úgy viselkednek, mintha megmagyarázhatatlannak tűnő dolgokat még sosem fejtettünk volna meg. Ha lenne egy egyszerű magyarázat, már biztos megtaláltuk volna. Mintha a csillagok és az élet nem lettek volna évezredes rejtélyek, amíg valaki meg nem oldotta volna őket, hogy utána egyszerű dolgoknak tűnjenek.”

In every generation it is the same plea: "No, this time it really *is* too mysterious for science."
The children grow up in a world where stars and chemistry and life have always been mundane and previous generations were just being silly mystics. And when they encounter something that's *really* inexplicable, like consciousness, why, such a mystery has never happened before, it is wholly unlike such non-mysterious things as stars and life forms. Surely if there were a mundane explanation we would have found it already. As if stars and life forms had not been great mysteries for millennia on end, until one day someone solved them, and then they were not mysteries any more.
Eredeti: In every generation it is the same plea: "No, this time it really *is* too mysterious for science." The children grow up in a world where stars and chemistry and life have always been mundane and previous generations were just being silly mystics. And when they encounter something that's *really* inexplicable, like consciousness, why, such a mystery has never happened before, it is wholly unlike such non-mysterious things as stars and life forms. Surely if there were a mundane explanation we would have found it already. As if stars and life forms had not been great mysteries for millennia on end, until one day someone solved them, and then they were not mysteries any more.

„Ha a számítási teljesítmény minden második évben megduplázódik, mi történik ha számítógép alapú mesterséges intelligenciák végzik a kutatást? A számítási teljesítmény két év alatt megduplázódik. A számítási teljesítmény két évnyi munka elvégzése alatt megduplázódik. A számítási teljesítmény két szubjektív évnyi munka elvégzése alatt megduplázódik. Két évvel azután, hogy a mesterséges intelligenciák elérik az ember színvonalát, a sebességük megduplázódik. Egy évvel később a sebességük ismét megduplázódik. Hat hónap, három hónap, másfél hónap… Szingularitás - (A Szingularitásba nézve)”

Eredeti: If computing speeds double every two years, what happens when computer-based AIs are doing the research? Computing speed doubles every two years. Computing speed doubles every two years of work. Computing speed doubles every two subjective years of work. Two years after Artificial Intelligences reach human equivalence, their speed doubles. One year later, their speed doubles again. Six months - three months - 1.5 months ... Singularity. ( Staring into the Singularity http://yudkowsky.net/singularity.html)

Eliezer Yudkowsky: Idézetek angolul

“If you want to build a recursively self-improving AI, have it go through a billion sequential self-modifications, become vastly smarter than you, and not die, you've got to work to a pretty precise standard.”

Question 12 in Less Wrong Q&A with Eliezer Yudkowsky (January 2010) http://lesswrong.com/lw/1lq/less_wrong_qa_with_eliezer_yudkowsky_video_answers/

“And someday when the descendants of humanity have spread from star to star, they won't tell the children about the history of Ancient Earth until they're old enough to bear it; and when they learn they'll weep to hear that such a thing as Death had ever once existed!”

Eliezer Yudkowsky Harry Potter and the Methods of Rationality

Ch. 45 http://www.fanfiction.net/s/5782108/45/Harry_Potter_and_the_Methods_of_Rationality
Harry Potter and the Methods of Rationality (2010 - 2015)

“To confess your fallibility and then do nothing about it is not humble; it is boasting of your modesty.”

Twelve Virtues Of Rationality http://yudkowsky.net/rational/virtues

“If cryonics were a scam it would have far better marketing and be far more popular.”

A comment on reddit (2009) http://www.reddit.com/r/atheism/comments/7g5ea/if_you_dont_believe_in_god_or_an_afterlife_would/c06ktil

“When you are older, you will learn that the first and foremost thing which any ordinary person does is nothing.”

Eliezer Yudkowsky Harry Potter and the Methods of Rationality

Professor Quirrell in Ch. 73 http://hpmor.com/chapter/73
Harry Potter and the Methods of Rationality (2010 - 2015)

“The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.”

Artificial Intelligence as a Positive and Negative Factor in Global Risk http://singinst.org/upload/artificial-intelligence-risk.pdf (August 2006)

“The people I know who seem to make unusual efforts at rationality, are unusually honest, or, failing that, at least have unusually bad social skills.”

Honesty: Beyond Internal Truth (June 2009) http://lesswrong.com/lw/101/honesty_beyond_internal_truth/

“I am tempted to say that a doctorate in AI would be negatively useful, but I am not one to hold someone’s reckless youth against them – just because you acquired a doctorate in AI doesn’t mean you should be permanently disqualified.”

So You Want To Be A Seed AI Programmer http://web.archive.org/web/20101227203946/http://www.acceleratingfuture.com/wiki/So_You_Want_To_Be_A_Seed_AI_Programmer

“Rationality is the master lifehack which distinguishes which other lifehacks to use.”

Epistle to the New York Less Wrongians (April 2011) http://lesswrong.com/lw/5c0/epistle_to_the_new_york_less_wrongians/