Instant Access to Thinking Probabilistically: Stochastic Processes, Disordered Systems, and Their Applications First Edition Ariel Amir ebook Full Chapters

Download as pdf or txt
Download as pdf or txt
You are on page 1of 55

Download the Full Version of textbook for Fast Typing at textbookfull.

com

Thinking Probabilistically: Stochastic Processes,


Disordered Systems, and Their Applications First
Edition Ariel Amir

https://textbookfull.com/product/thinking-probabilistically-
stochastic-processes-disordered-systems-and-their-
applications-first-edition-ariel-amir/

OR CLICK BUTTON

DOWNLOAD NOW

Download More textbook Instantly Today - Get Yours Now at textbookfull.com


Recommended digital products (PDF, EPUB, MOBI) that
you can download immediately if you are interested.

Biota Grow 2C gather 2C cook Loucas

https://textbookfull.com/product/biota-grow-2c-gather-2c-cook-loucas/

textboxfull.com

Theory of stochastic objects: probability, stochastic


processes, and inference First Edition Micheas

https://textbookfull.com/product/theory-of-stochastic-objects-
probability-stochastic-processes-and-inference-first-edition-micheas/

textboxfull.com

Morning sidekick journal 3rd Edition Amir Atighehchi Ariel


Banayan Mikey Ahdoot

https://textbookfull.com/product/morning-sidekick-journal-3rd-edition-
amir-atighehchi-ariel-banayan-mikey-ahdoot/

textboxfull.com

Stochastic Game Strategies and their Applications 1st


Edition Bor-Sen Chen

https://textbookfull.com/product/stochastic-game-strategies-and-their-
applications-1st-edition-bor-sen-chen/

textboxfull.com
Theory and Statistical Applications of Stochastic
Processes 1st Edition Yuliya Mishura

https://textbookfull.com/product/theory-and-statistical-applications-
of-stochastic-processes-1st-edition-yuliya-mishura/

textboxfull.com

Stochastic Processes and Calculus An Elementary


Introduction with Applications 1st Edition Uwe Hassler

https://textbookfull.com/product/stochastic-processes-and-calculus-an-
elementary-introduction-with-applications-1st-edition-uwe-hassler/

textboxfull.com

Theory of stochastic objects probability stochastic


processes and inference 1st Edition Micheas

https://textbookfull.com/product/theory-of-stochastic-objects-
probability-stochastic-processes-and-inference-1st-edition-micheas/

textboxfull.com

Applied Probability and Stochastic Processes Second


Edition Beichelt

https://textbookfull.com/product/applied-probability-and-stochastic-
processes-second-edition-beichelt/

textboxfull.com

Applied Probability and Stochastic Processes Second


Edition Beichelt

https://textbookfull.com/product/applied-probability-and-stochastic-
processes-second-edition-beichelt-2/

textboxfull.com
Thinking Probabilistically

Probability theory has diverse applications in a plethora of fields, including physics,


engineering, computer science, chemistry, biology, and economics. This book will
familiarize students with various applications of probability theory, stochastic model-
ing, and random processes, using examples from all these disciplines and more.
The reader learns via case studies and begins to recognize the sort of problems that
are best tackled probabilistically. The emphasis is on conceptual understanding, the
development of intuition, and gaining insight, keeping technicalities to a minimum.
Nevertheless, a glimpse into the depth of the topics is provided, preparing students
for more specialized texts while assuming only an undergraduate-level background
in mathematics. The wide range of areas covered – never before discussed together
in a unified fashion – includes Markov processes and random walks, Langevin and
Fokker–Planck equations, noise, generalized central limit theorem and extreme values
statistics, random matrix theory, and percolation theory.

Ariel Amir is a Professor at Harvard University. His research centers on the theory of
complex systems.
Thinking Probabilistically
Stochastic Processes, Disordered Systems,
and Their Applications

ARIEL AMIR
Harvard University, Massachusetts
University Printing House, Cambridge CB2 8BS, United Kingdom
One Liberty Plaza, 20th Floor, New York, NY 10006, USA
477 Williamstown Road, Port Melbourne, VIC 3207, Australia
314–321, 3rd Floor, Plot 3, Splendor Forum, Jasola District Centre, New Delhi – 110025, India
79 Anson Road, #06–04/06, Singapore 079906

Cambridge University Press is part of the University of Cambridge.


It furthers the University’s mission by disseminating knowledge in the pursuit of
education, learning, and research at the highest international levels of excellence.

www.cambridge.org
Information on this title: www.cambridge.org/9781108479523
DOI: 10.1017/9781108855259
© Ariel Amir 2021
This publication is in copyright. Subject to statutory exception
and to the provisions of relevant collective licensing agreements,
no reproduction of any part may take place without the written
permission of Cambridge University Press.
First published 2021
A catalogue record for this publication is available from the British Library.
Library of Congress Cataloging-in-Publication Data
Names: Amir, Ariel, 1981– author.
Title: Thinking probabilistically : stochastic processes, disordered systems,
and their applications / Ariel Amir.
Description: Cambridge, United Kingdom ; New York, NY : Cambridge University
Press, 2021. | Includes bibliographical references and index.
Identifiers: LCCN 2020019651 (print) | LCCN 2020019652 (ebook) |
ISBN 9781108479523 (hardback) | ISBN 9781108789981 (paperback) |
ISBN 9781108855259 (epub)
Subjects: LCSH: Probabilities–Textbooks. | Stochastic processes–Textbooks. |
Order-disorder models–Textbooks.
Classification: LCC QA273 .A548 2021 (print) | LCC QA273 (ebook) | DDC 519.2–dc23
LC record available at https://lccn.loc.gov/2020019651
LC ebook record available at https://lccn.loc.gov/2020019652
ISBN 978-1-108-47952-3 Hardback
ISBN 978-1-108-78998-1 Paperback
Cambridge University Press has no responsibility for the persistence or accuracy
of URLs for external or third-party internet websites referred to in this publication
and does not guarantee that any content on such websites is, or will remain,
accurate or appropriate.
Contents

Acknowledgments page viii

1 Introduction 1
1.1 Probabilistic Surprises 5
1.2 Summary 12
1.3 Exercises 13

2 Random Walks 15
2.1 Random Walks in 1D 16
2.2 Derivation of the Diffusion Equation for Random Walks in Arbitrary
Spatial Dimension 18
2.3 Markov Processes and Markov Chains 24
2.4 Google PageRank: Random Walks on Networks as an Example
of a Useful Markov Chain 25
2.5 Relation between Markov Chains and the Diffusion Equation 30
2.6 Summary 32
2.7 Exercises 32

3 Langevin and Fokker–Planck Equations and Their Applications 39


3.1 Application of a Discrete Langevin Equation to a Biological Problem 45
3.2 The Black–Scholes Equation: Pricing Options 51
3.3 Another Example: The “Well Function” in Hydrology 60
3.4 Summary 62
3.5 Exercises 63

4 Escape Over a Barrier 67


4.1 Setting Up the Escape-Over-a-Barrier Problem 70
4.2 Application to the 1D Escape Problem 71
4.3 Deriving Langer’s Formula for Escape-Over-a-Barrier in Any
Spatial Dimension 73
4.4 Summary 79
4.5 Exercises 79
vi Contents

5 Noise 81
5.1 Telegraph Noise: Power Spectrum Associated with a Two-Level-System 83
5.2 From Telegraph Noise to 1/f Noise via the Superposition of Many Two-
Level-Systems 88
5.3 Power Spectrum of a Signal Generated by a Langevin Equation 89
5.4 Parseval’s Theorem: Relating Energy in the Time and Frequency Domain 90
5.5 Summary 92
5.6 Exercises 92

6 Generalized Central Limit Theorem and Extreme Value Statistics 96


6.1 Probability Distribution of Sums: Introducing the Characteristic Function 98
6.2 Approximating the Characteristic Function at Small Frequencies
for Distributions with Finite Variance 99
6.3 Central Region of CLT: Where the Gaussian Approximation Is Valid 100
6.4 Sum of a Large Number of Positive Random Variables: Universal
Description in Laplace Space 103
6.5 Application to Slow Relaxations: Stretched Exponentials 106
6.6 Example of a Stable Distribution: Cauchy Distribution 108
6.7 Self-Similarity of Running Sums 109
6.8 Generalized CLT via an RG-Inspired Approach 110
6.9 Exploring the Stable Distributions Numerically 118
6.10 RG-Inspired Approach for Extreme Value Distributions 120
6.11 Summary 127
6.12 Exercises 128

7 Anomalous Diffusion 133


7.1 Continuous Time Random Walks 134
7.2 Lévy Flights: When the Variance Diverges 137
7.3 Propagator for Anomalous Diffusion 138
7.4 Back to Normal Diffusion 139
7.5 Ergodicity Breaking: When the Time Average and the Ensemble
Average Give Different Results 139
7.6 Summary 140
7.7 Exercises 141

8 Random Matrix Theory 145


8.1 Level Repulsion between Eigenvalues: The Birth of RMT 145
8.2 Wigner’s Semicircle Law for the Distribution of Eigenvalues 149
8.3 Joint Probability Distribution of Eigenvalues 155
8.4 Ensembles of Non-Hermitian Matrices and the Circular Law 162
8.5 Summary 179
8.6 Exercises 180
Contents vii

9 Percolation Theory 184


9.1 Percolation and Emergent Phenomena 184
9.2 Percolation on Trees – and the Power of Recursion 193
9.3 Percolation Correlation Length and the Size of the Largest Cluster 195
9.4 Using Percolation Theory to Study Random Resistor Networks 197
9.5 Summary 202
9.6 Exercises 203

Appendix A Review of Basic Probability Concepts and Common Distributions 207


A.1 Some Important Distributions 208
A.2 Central Limit Theorem 210

Appendix B A Brief Linear Algebra Reminder, and Some Gaussian Integrals 211
B.1 Basic Linear Algebra Facts 211
B.2 Gaussian Integrals 212

Appendix C Contour Integration and Fourier Transform Refresher 214


C.1 Contour Integrals and the Residue Theorem 214
C.2 Fourier Transforms 214

Appendix D Review of Newtonian Mechanics, Basic Statistical Mechanics, and Hessians 217
D.1 Basic Results in Classical Mechanics 217
D.2 The Boltzmann Distribution and the Partition Function 218
D.3 Hessians 218

Appendix E Minimizing Functionals, the Divergence Theorem, and Saddle-Point


Approximations 220
E.1 Functional Derivatives 220
E.2 Lagrange Multipliers 220
E.3 The Divergence Theorem (Gauss’s Law) 220
E.4 Saddle-Point Approximations 221

Appendix F Notation, Notation … 222

References 225
Index 232
Acknowledgments

I am indebted to the students of Harvard course APMTH 203 for their patience and
perseverance as the course materials were developed, and I am hugely grateful to all
of my teaching fellows along the years for their hard work: Sarah Kostinksi, Po-Yi Ho,
Felix Wong, Siheng Chen, Pétur Rafn Bryde, and Jiseon Min. Much of the contents of
the Appendices draws on their helpful notes.
I thank Eli Barkai, Stas Burov, Ori Hirschberg, Yipei Guo, Jie Lin, David Nelson,
Efi Shahmoon, Pierpaolo Vivo, and Ahmad Zareei for numerous useful discussions
and comments on the notes. Christopher Bergevin had excellent suggestions for Chap-
ter 2, and Julien Tailleur for Chapter 3. Ori Hirschberg and Eli Barkai had many
important comments and useful suggestions regarding Chapter 6. I thank Grace Zhang,
Satya Majumdar, and Fernando L. Metz for a careful reading of Chapter 8. I am
grateful to Martin Z. Bazant and Bertrand I. Halperin for important comments on
Chapter 9. I thank Terry Tao for allowing me to adapt the discussion of Black–Scholes
in Chapter 3 from his insightful blog. I also thank Dr. Yasmine Meroz and Dr. Ben
Golub for giving guest lectures in early versions of the course. Finally, I am grateful
to Simon’s coffee shop for providing reliably excellent coffee, which was instrumental
to the writing of this book.
I dedicate this book to Lindy, Maayan, Tal, and Ella, who keep my feet on the
ground and a smile on my face.
1 Introduction

I know too well that these arguments from probabilities are impostors, and unless
great caution is observed in the use of them they are apt to be deceptive – in
geometry, and in other things too
(from Plato’s Phaedo)

The purposes of this book are to familiarize you with a broad range of examples
where randomness plays a key role, develop an intuition for it, and get to the level
where you may read a recent research paper on the subject and be able to understand
the terminology, the context, and the tools used. This is in a sense the “organizing
principle” behind the various chapters: In all of them we are driven by applications
where probability plays a fundamental role, and leads to exciting and often intriguing
phenomena. There are many relations between the chapters, both in terms of the
mathematical tools and in some cases in terms of the physical processes involved,
but one chapter does not follow from the previous one by necessity or hinge on it –
rather, the idea is to present a rich repertoire of problems involving randomness,
giving the reader a good basis in a broad range of fields . . . and to have fun
along the way.
Randomness leads to new phenomena. In a classic paper, Anderson (1972) coined
the phrase “more is different”. It is also true that “stochastic is different” . . . The book
will give you some tools to understand phenomena associated with disordered systems
and stochastic processes. These will include percolation (relevant for polymers,
gels, social networks, epidemic spreading); random matrix theory (relevant for
understanding the statistics of nuclear and atomic levels, model certain properties
of ecological systems and more); random walks and Langevin equations (pertinent
to understanding numerous applications in physics, chemistry, cell biology as well
as finance). The emphasis will be on understanding the phenomena and quantifying
them. Note that while all of the applications considered here build on random-
ness in a fundamental way, the collection of topics covered is far from repre-
sentative of the vast realm of applications that hinge on probability theory. (For
instance, two important fields not touched on here are statistical inference and
chemical kinetics).
2 Introduction

What mathematical background is assumed? The book assumes a solid background


in undergraduate-level mathematics: primarily calculus, linear algebra, and basic
probability theory. For instance, when a PDE (partial differential equation) is derived,
we will not dwell too much on its solution if standard techniques are utilized, as will
be the case when using standard results of linear algebra (e.g., that a Hermitian matrix
admits unitary diagonalization). Similarly, if Lagrange multipliers are needed to
perform a minimization, familiarity with them will be assumed. We will occasionally
evaluate integrals using contour integration, though a motivated reader will be
able to follow the vast majority of the book without a background in complex
analysis. A summary/refresher of some of the techniques utilized is provided in
Appendices A–E. A concise mathematical physics textbook that may come in handy
for a reader who needs a further reminder of the techniques is by Mathews and
Walker (1970). For readers who need to fill in a gap in their mathematical background
(e.g., complex analysis), two excellent textbooks that cover the vast majority of the
mathematical background assumed here (and much more) are by Hassani (2013) and
Arfken, Weber, and Harris (2012). Further references for particular subject matter
(probability theory, linear algebra, etc.) are provided in the Appendices.

To Prove or Not to Prove … That Is the Question It is also important to emphasize


what this book is not about: The derivations we will present will not be mathematically
rigorous. What a physicist considers a proof is not what a mathematician would! In
many cases, the physicist’s proof has to be later “redone” by a mathematician,
sometimes decades later. However, for various real-world applications the advantages
of a rigorous proof might not be justifiable. Quoting Feynman, “If there is something
very slightly wrong in our definition of the theories, then the full mathematical rigor
may convert these errors into ridiculous conclusions.” To paraphrase Feynman – in
many cases, there is no need to solve a model exactly, since the connection between
the model and the reality is only crude, and we made numerous (far more important)
approximations in deriving the model equations (von Neumann put this more bluntly:
“There’s no sense in being precise when you don’t even know what you’re talking
about”). Similar expectations will hold for the exercises at the end of each chapter,
which also consist of numerical simulations in cases where analytic derivations are
impossible or outside the scope of the book.
Furthermore, the notation and jargon we will follow will be those used by physicists
in research papers – which is sometimes different from those used by mathematicians
(for instance, we will refer to the object mathematicians call the “probability density
function” as the “probability distribution”, and use the physicists’ notation for it –
p(x)). We will often not specify the precise mathematical conditions under which the
derivations can be made rigorous, and we will shamelessly use algebraic manipula-
tions without justifying them – such as using Fubini’s theorem without ensuring the
function is absolutely integrable. All functions will be assumed to be differentiable as
many times as necessary. We will also be using Dirac’s δ-function in the derivations,
Introduction 3

and creatures such as the Fourier transform of eiωt . For a physicist, these objects
should be interpreted under the appropriate regularization – a δ-function should be
thought of as having a finite width, but much smaller than any other relevant scale in
the problem. (Physicists are relatively used to this sort of regularization – for instance,
in computing Green functions using contour integration the contour often has to be
shifted by an amount ±i to make the results convergent). If the final result depends
on this finite width – then the treatment using δ-function is inadequate and should be
revisited. But as long as the final results are plausible (e.g., in some cases we can com-
pare with numerics) we will not re-derive them in a rigorous fashion. The advantage of
this non-rigorous approach is that it seems to be the one more relevant to applications,
which are the focus of this book. Experiments and real-life phenomena do not conform
to the mathematical idealization we make anyhow, and von Neuman’s quote comes to
mind again. In other words, the more important thing for explaining physical reality is
to have a good model rather than specify the conditions rigorously (a related quote is
attributed to Kolmogorov: “Important is not what is rigorous but what is true”). That
is not to take anything away from the beautiful work of mathematicians – it is just not
the point of this book.
For some students, this non-rigorous approach could prove challenging. When the
rigorously inclined student encounters a situation where they feel the formal manipula-
tions are unjustified, it may prove useful for them to construct counter-examples, e.g.,
functions which do not obey the theorem, and then to consider the physical meaning
of these “good” and “bad” functions – which class is relevant in which physical
situations, and what we learn from the scenarios where the derivation fails. Our goal
here is not to undermine the importance of rigorous mathematics, but to provide a non-
rigorous introduction to the plethora of natural sciences phenomena and applications
where stochasticity plays a central role.

How to read this book A few words on the different topics covered and their rela-
tions. Chapter 1 is introductory, and gives some elementary examples where basic
probability theory leads to perhaps counter-intuitive results. One of the examples,
Benford’s law, touches on some of the topics of Chapter 6 (dealing with heavy-
tailed distributions, falling off as a power-law). Chapter 2 presents random walks
and diffusion, and provides the foundational basis for many of the other chapters.
Chapter 3 directly builds on the simple random walks introduced in Chapter 2,
and discusses the important concepts of Langevin and Fokker–Planck equations.
The first part of the chapter “builds” the formalism (albeit in a non-technical
and non-rigorous fashion), while the second part of the chapter deals with three
applications of the ideas (cell size control – an application in biology, the Black–
Scholes equation – one in economics, and finally a short application in hydrology).
A reader may skip these applications without affecting the readability of the rest
of the materials. Similarly, Chapter 4 (dealing with the “escape over a barrier”
problem) can be viewed as a sophisticated application of the ideas of Chapter 3,
with far-reaching implications. It certainly puts the materials of the previous chap-
ters to good use, but again can be skipped without affecting the flow. Chapter 5
4 Introduction

is of particular importance to those dealing with signals and noise, and builds on ideas
introduced in earlier chapters (e.g., the Markov chains of Chapter 2) to analyze the
power spectrum (i.e., noise characteristics) of several paradigmatic systems (including
white noise, telegraph noise, and 1/f noise). Chapter 6 derives a plethora of basic
results dealing with the central limit theorem, its limitations and generalizations,
and the related problem of “extreme value distributions”. It is more technical (and
lengthier) than previous chapters. Chapter 7, dealing with anomalous diffusion, can be
viewed as an advanced application of the materials of Chapter 6, “reaping the fruits” of
the labor of the previous chapter. In a sense, it extends the results of the random walks
of Chapter 2 to scenarios where some of the assumptions of Einstein’s approach do
not hold – and have been shown to be relevant to many systems in physics and biology
(reminiscent of the quote, “everything not forbidden is compulsory” . . .) Chapter 8
deals with random matrices and some of their applications. It is the most technical
chapter in this book, and is mostly independent from the chapter on percolation theory
that follows. Moreover, a large fraction of Chapter 8 deals with a non-trivial derivation
of the “circular law” associated with non-Hermitian matrices, and a reader can skip
directly to Chapter 9 if they prefer. (Note that most of this lengthy derivation “unzips”
the short statements made in the original paper, perhaps giving students a glimpse into
the compact nature in which modern research papers are written!) The final chapter on
percolation theory touches on fundamental concepts such as emergent behavior, the
renormalization group, and critical phenomena. Throughout the chapters, numerical
simulations in MATLAB are provided when relevant.∗ Often, results are easy to obtain
numerically but challenging to derive analytically, highlighting the importance of the
former as a supplement to analytic approaches. Finally, note that occasionally “boxes”
are used where we emphasize an idea or concept by placing the passage between two
solid lines.

Note that each chapter deals with a topic on which many books and many hundreds
of papers have been written. This book merely opens a narrow window into this vast
literature. The references throughout the book are also by no means comprehensive,
and we apologize for not including numerous relevant references – this text is not
intended to be a comprehensive guide to the literature! When possible, we refer to
textbooks on the topic that provide a more in-depth discussion as well as a more
extensive list of references.

A comment on the problems in this book (and their philosophy) The problems at the
end of each chapter are a little different from those encountered in most textbooks. The
phrasing is often laconic or even vague. Students might complain that “the problem is
not hard – I just cannot figure out what it is!” This actually reflects the typical situation
in many real-life problems, be it in academia or industry, where figuring out how to
set up the problem is often far more challenging than solving the problem itself.
The Google PageRank algorithm described in Chapter 2 is a nice example where
simple, well-known linear algebra can be highly influential when used correctly in
the appropriate context. The situation might be frustrating at times, when trying to
∗ The codes can be downloaded here: https://github.com/arielamir/ThinkingProbablistically
1.1 Probabilistic Surprises 5

prove something without being given in advance the precise conditions for the results
to hold – yet this mimics the situation encountered so often in research. Indeed,
many of the original problems arose from the author’s own research experience or
from (often recent) research papers, and as such reflect “natural” problems rather
than contrived exercises. In other cases, the problems supplement the materials of the
main chapter and essentially “teach” a classic theorem (e.g., Pólya’s theorem in
Chapter 2) through hands-on experience and calculations (and with the proper
guidance to make it manageable, albeit occasionally challenging). We made a
conscious choice to make the problems less defined and avoid almost categorically
problems of the form “Prove that X takes the form of Y under the assumptions Z.”
The philosophy behind this choice is to allow this book (and the problems) to serve
as a bridge between introducing the concepts and doing research on related topics.
The typical lack of such bridges is nicely articulated by Williams (2018), which was
written by a graduate student based on his own first-hand experience in making the
leap from undergraduate course work to graduate-level physics research. Trickier
problems will be denoted by a * (hard) or ** (very hard), based on the previous
experience of students tackling these problems.

1.1 Probabilistic Surprises

Randomness can lead to counter-intuitive effects and to novel phenomena


Research has shown that our intuition for probability is far from perfect. Problems
associated with probability are often easy to formulate but hard to solve, as we shall
see throughout this book. Many problems have an element of randomness to them
(sometimes due to our imperfect knowledge of the system) and may be best examined
via a probablisitic model.
As a “warmup,” let us consider several elementary examples, where the naive
expectation (of most people) fails, while a simple calculation gives a counterintuitive
result. Some excellent examples that we will not consider – since they are perhaps
too well known – include the Monty–Hall problem (http://en.wikipedia.org/wiki/
MontyHallproblem), and the false-negative paradox (http://en.wikipedia.org/wiki/
Falsepositiveparadox).

1.1.1 Example: Does the Fraction of a Rare Disease in a Population Remain


Fixed Over Time? (Hardy–Weinberg Equilibrium)
Consider a rare disease associated with some recessive allele (i.e., the individual
must have two copies of this gene, one from each parent, in order to be sick). The
population consists of three genotypes: individuals with two copies of the dominant
gene (who will not be sick), which we will denote by AA; those with one copy of
the recessive gene, aA; and those with two copies of it aa, who will be sick. Each
of the parents gives one of the alleles to the offspring, with equal probability. This
is schematically described in the table below, describing the various possibilities for
6 Introduction

the offspring’s genotype (and their probabilities in brackets) given the mother’s and
father’s genotypes.

mother \ father aa AA aA
   
aa aa(1) aA(1) aA 12 ,aa 12
   
AA aA(1) AA(1) AA 12 ,aA 12
             
aA aa 12 ,aA 12 AA 12 ,aA 12 aa 14 ,AA 14 ,aA 12

We shall denote the relative abundance of genotypes AA, aA, and aa by p, 2q, and r,
respectively (thus, by definition p + 2q + r = 1). Surprisingly, at the beginning of the
twentieth century, it was not clear what controls the relative abundance of the three
types: What are the possible stable states? What are the dynamics starting from a
generic initial condition?

On surprises If you haven’t seen this problem before, you might have some prior
intuition or guesses as to what the results might be. For instance, it might be reasonable
to expect that if a disease corresponding to a recessive gene is initially very rare in the
population, then over time it should go extinct. This is, in fact, not the case, as we shall
shortly see. In that sense, you may call the results “surprising.” But perhaps a reader
with better intuition would have guessed the correct result a priori, and will not find the
result surprising at all – in that sense, the notion of a “surprising result” in science is, in
fact, a rather unscientific concept. In retrospect, mathematical results cannot really be
surprising . . . Nevertheless, the scientific process itself is often driven by intuition and
lacks the clarity of thought that is the luxury of hindsight, and for this reason scientists
do often invoke the concept of a “surprising result.” Moreover, this often reflects
our expectations from prior null models that we are familiar with. For example, in
Section 1.1.2 we will show a simple model suggesting an exponential distribution
of the time intervals between subsequent buses reaching a station. Armed with this
insight, we can say that the results described in Chapter 8, finding a distribution of time
intervals between buses that is not only non-exponential but in fact non-monotonic,
are surprising! But this again illustrates that our definition of surprising very much
hinges on our prior knowledge, and perhaps a more (or less) mathematically sophisti-
cated reader would not find the latter finding surprising. For a related paper, see also
Amir, Lemeshko, and Tokieda (2016b).

Remarkably, it was not until 1908 that the mathematician G. H. Hardy sent a letter
to the editor of Science magazine clearing up this issue (Hardy 1908). His letter
became a cornerstone of genetics (known today as the Hardy–Weinberg equilibrium, a
name also crediting the independent contributions of Wilhelm Weinberg). The model
and calculations are extremely simple. Assuming a well-mixed population in its nth
generation, let us compute the abundance of the three genotypes in the n + 1 genera-
tion, assuming for simplicity random mating between the three genotypes. Using the
1.1 Probabilistic Surprises 7

table, it is straightforward to work out that the equations relating the fractions in one
generation to the next are:

pn+1 = p2 + 2pq + q 2 = (p + q)2 . (1.1)

rn+1 = r 2 + 2qr + q 2 = (r + q)2 . (1.2)

2qn+1 = 2q 2 + 2pq + 2qr + 2pr = 2(p + q)(r + q). (1.3)

Note that we dropped the n subscript on the RHS (the abbreviation we will use for
“right-hand side” through the text) to make the notation less cumbersome. As a sanity
check, you can check that these sum up to (p + 2q + r)2 = 1.
If we reach a stationary (“equilibrium”) state, then pn+1 = pn , etc. This implies
that

pr = q 2 . (1.4)

Hence q is the geometric mean of p and r at equilibrium. Is this a sufficient condition


for equilibrium? The answer is yes, since the first equation becomes

p = p2 + 2pq + pr = p(p + 2q + r) = p (1.5)

(and the second equation has the same structure – can you see why there is no need to
check the third?).
Finally, how long would it take us to reach this state starting from general initial
conditions p1 , q1 , and r1 ? Note that qn+1 = (p + q)(r + q), hence:

q22 = (p1 + q1 )2 (r1 + q1 )2 = p2 r2 .

So equilibrium is precisely established after a single generation! Importantly, in sharp


contrast to the biologists’ prior belief, it can have an arbitrarily small – but stable –
value of r. Things are different, in fact, in the subtle variant of this problem studied in
Problem 1.2.

1.1.2 Example: Bus Timings, Random vs. Ordered


In bus station A, buses are regularly sent off every 6 minutes. In station B, on the other
hand, the manager throws a die every minute and sends off a bus if they get a “6.”
Q: How many buses leave per day? What is the average time between buses?
It is clear that on average 60 · 24/6 = 240 buses will be sent out, in both cases. Hence
the average time between buses is 6 minutes in both cases (in case A, the time between
buses is, of course, always 6 minutes).
Q: If a person arrives at a random time to the bus station, how many minutes do
they have to wait on average?
For simplicity, let us assume that the person arrived just after a potential bus arrival
event.
8 Introduction

What should we expect? In case A, it is equally probable for the waiting time to
be 1,2 . . . ,6 minutes, hence the average waiting time is 3.5 minutes. Try to think
about case B. Given that the total number of buses per day and the average time
between buses is identical, you might expect that the average waiting time would be
identical too. This is not the case, as we shall shortly show: In case B, the average
time between buses is also 6 minutes, but, perhaps counterintuitively, this is also the
average waiting time!

To see this, let us assume that we got to the station at a random time. The probability
to wait a minute until the next one is 1/6. The probability for a 2 minute wait is 56 16 ,
and more generally the probability to wait n minutes, pn , is

pn = (1 − p)n−1 p (1.6)

(with p = 1/6).
Therefore, the average waiting time is

 ∞

T  = pn n = n(1 − p)n−1 p. (1.7)
n=1

Without the n in front, this would be a geometric series. To deal with it, define
q ≡ 1 − p, and note that


q n = 1/(1 − q). (1.8)
n=0

Taking the derivative with respect to q gives us the following relation:




nq n−1 = 1/(1 − q)2 . (1.9)
n=0

Therefore, our sum in Eq. (1.7) equals

T  = p/(1 − q)2 = (1/6)/(1/6)2 = 6. (1.10)

Looking back, this makes perfect sense, since the fact that a bus just left does not
“help” us regarding the next one – the process has no memory. Interestingly, this
example is relevant for the physics of a (classical) model of electron transport, known
as the Drude model – where our calculations imply that an additional factor of “2”
should not be present in the final result.
What about the distribution of time gaps? It is given by Eq. (1.6), and is therefore
exponential. This process is a simple example of a random process, and in the con-
tinuum limit where the time interval is vanishingly small this is known as a Poisson
process (see Appendix A for the related Poisson distribution, describing the probabil-
ity distribution of the number of events occurring within a fixed time interval).
1.1 Probabilistic Surprises 9

A note on terminology Throughout this book, we will follow the physicists’ terminol-
ogy of referring to a probability density function (pdf) as a “probability distribution,”
and referring to a “cumulative distribution” for the cumulative distribution function
(cdf). Moreover, for a real random variable X we will denote the probability dis-
tribution by p(x), rather than the notation fX often used in mathematics. Further
notational details are provided in Appendix F.

What about real buses? An online blog analyzed the transportation system in London
and showed that it is Poissonian (i.e., corresponds to the aforementioned random
bus scheduling) (http://jasmcole.com/2015/03/02/two-come-along-at-once/). This
implies that the system is not optimal (since we can get buses coming in “bunches,” as
well as very long waits). On the other hand, later in the book (Chapter 8) we will see
a case where buses were not Poissonian but also not uniform – the distribution was
very different from exponential (the Poisson case) but was not narrowly peaked (the
uniform case). Interestingly, it vanished at zero separation – buses “repelled” each
other. It was found to be well described by the results of random matrix theory, which
we shall cover in Chapter 8.

1.1.3 Bertrand’s Paradox: The Importance of Specifying the Ensemble


Consider an equilateral triangle inscribed in a circle. Suppose a chord of the circle is
chosen at random. What is the probability that the chord is longer than a side of the
triangle?
We shall now show three “reasonable” methods for choosing a random chord,
which will give us 1/2, 1/3, and 1/4 as an answer, respectively. This is known as
“Bertrand’s paradox” (Bertrand 1907).

Method 1: Choosing the endpoints. Let us choose the two endpoints of the chord at
random. The chord is longer than the side of the triangle in 1/3 of the cases – as is
illustrated in Fig. 1.1
Method 2: Choosing the midpoint. What about if we choose a point randomly and
uniformly in the circle, and define it to be the middle of the chord? From the

Figure 1.1 Method 1: Choosing the endpoints of the chord.


10 Introduction

Figure 1.2 Method 2: Choosing the chord midpoint randomly and uniformly in the circle.

Figure 1.3 Method 3: Defining the chord midpoint by choosing a point along the radius.

construction of Fig. 1.2, we see that when the point falls within the inner circle
the chord will be long enough. Its radius is R sin(30) = R/2, hence its area is 1/4
times that of the outer circle – therefore, the probability will be 1/4.
Method 3: Choosing a point along the radius to define the midpoint. If we choose the
chord midpoint along the radius of the circle with uniform probability, the chord
will be long enough when the chosen point is sufficiently close to the center – it is
easy to see that the triangle bisects the radius, so in this case the probability will be
1/2 (see Fig. 1.3).

Importantly, there is no right or wrong answer – but the point is that one has to
describe the way through which the “random” choice is made to fully describe the
problem.

1.1.4 Benford’s Law: The First Digit Distribution


Another related example where the lack of specification of the random ensemble leads
to rather counterintuitive results is associated with Benford’s law (named after Frank
Benford, yet discovered by Simon Newcomb a few decades beforehand!). It is an
empirical observation that for many “natural” datasets the distribution of the first digit
is very far from uniform, see Fig. 1.4. The formula that the data is compared with is
one where the relative abundance of the digit d is proportional to

pd ∝ log(1 + 1/d) (1.11)


1.1 Probabilistic Surprises 11

0.4 0.4
Results from USA 2016 First digit for Massachusetts city populations
Benford's law Benford's law

0.3 0.3

Probability
Probability

0.2 0.2

0.1 0.1

0 0

Digit Digit

Figure 1.4 (left) Example of a dataset approximately following Benford’s law, obtained by
using readily available data for the vote total of the candidates in the 2016 elections in the
USA across the different states (data from Wikipedia). You can easily test other datasets
yourself. A similar analysis was used to suggest fraud in the 2009 Iranian elections (Battersby
2009). (right) Similar analysis of city population size in Massachusetts, based on the 2010
census data (www.togetherweteach.com/TWTIC/uscityinfo/21ma/mapopr/21mapr.htm).
(this implies that 1 occurs in about 30 % of cases and 9 in less than 5!) Although here
it makes no difference, log refers to the natural logarithm throughout the text, unless
otherwise specified.
Clearly, this is not always true, e.g., MATLAB’s random number generator closely
follows a uniform distribution, and hence the distribution of the first digit will be
uniform. But it turns out to be closely followed for, e.g., tax returns, city populations,
election results, physics constants, etc. What do these have in common? The random
variable is broadly distributed, i.e., the distribution spans many decades, and it is far
from uniform. In fact, to get Eq. (1.11), we need to assume that the logarithm of the
distribution is uniformly distributed over a large number of decades, as we shall now
show. If x is such a random variable, with y = log(x), then for values of y within the
support of the uniform distribution we have
p(x)dx = g(y)dy = Cdy, (1.12)

where p(x) and g(y) are the probability distributions, and C = 1


ymax −ymin . Hence:

p(x) = C|dy/dx| = C/x (1.13)


(see Appendix A for a reminder on working with such a change of variables). There-
fore, p(x) rapidly increases at low values of x (until dropping to zero at values of x
below the lower cutoff – set by the cutoff of the assumed uniform distribution of y).
The relative abundance of the digit 1 is therefore
 2  20
p1 = p(x)dx + p(x)dx . . . ≈ C · D log(2/1), (1.14)
1 10
where D is the number of decades spanned by the distribution p(x). Similarly
 d+1
1
pd ∝ dx = log(1 + 1/d), (1.15)
d x
and Benford’s law follows.
12 Introduction

The importance of specifying the ensemble Although the problems are very different
in nature, there is a deep analogy between Bertrand’s paradox and Benford’s law
in the following sense: In both cases the “surprising result” comes from a lack of
definition of the random ensemble involved. In Bertrand’s paradox case, it is due to
our loose phrasing of “random.” In the case of Benford’s law, it is manifested in our
misconception that given that we are looking at a random variable, the distribution of
the first digit should be uniform – this would indeed be true if the random variable
is drawn from a broad, uniform distribution, but such distributions typically do not
correspond to naturally occurring datasets.

It is easy to show that Benford’s law arises if we assume that the distribution of the first
digit is scale invariant (e.g., the tax returns can be made in dollars or euros). But why
do such broad distributions arise in nature so often? One argument that can be made to
rationalize Benford’s law relies on multiplicative processes, an idea that (potentially)
traces back to Shockley. He noticed that the productivity of physicists at Bell labs –
quantified in terms of their publication number – follows a log-normal distribution,
and wanted to rationalize this observation (Shockley 1957). We repeat the argument
here, albeit for the example of the population of a city, x.
This depends on a large number N of “independent” variables: the availability of
water, the weather, the quality of the soil, etc. If we assume that:


N
x= x1 · x2 . . . xN , (1.16)
i=1

with xi some random, independent variables (e.g., drawn from a Gaussian distribu-
tion), then the distribution of the logarithm of x can be approximated by a Gaussian
(by the central limit theorem, see Appendix A), hence p(x) will be a log-normal
distribution – which is very similar to the uniform distribution we assumed above,
and Benford’s law will approximately follow.
For another example where a similar argument is invoked to explain the observation
of a log-normal distribution of file sizes, see Downey (2001). Another example of
a variant of this argument relates to the logarithmic, slow relaxations observed in
nature: see Amir, Oreg, and Imry (2012). We will revisit this example in Chapter 6
in more detail. Finally, the log-normal distribution and the multiplicative mechanism
outlined above also pop up in the “numerology” context of Amir, Lemeshko, and
Tokieda (2016b).

1.2 Summary

In this chapter we introduced a somewhat eclectic set of problems where proba-


bility leads to (perhaps) surprising results. Hardy–Weinberg involved genetics and
population dynamics, where we derived a necessary and sufficient condition for the
1.3 Exercises 13

relation of the three possible genotypes. We discussed the important example of a


Poisson process, motivated by considering a simple model for the statistics of buses
arriving at a station. Finally, we exemplified the huge importance of specifying the
random ensembles we are dealing with, first by following Bertrand and considering
a geometric “paradox” (resulting from our incomplete definition of the problem), and
next by discussing (and attempting to rationalize) the empirical observation of a rather
universal (but non-uniform) distribution of the first digit associated with naturally
occurring datasets.

For further reading See Mlodinow (2009) for an elementary but amusing book on
surprises associated with probability and common pitfalls, with interesting historical
anecdotes.

1.3 Exercises

1.1 Probability Warm-up


In a certain village, each family has children until their first daughter is born, after
which they stop. What is the ratio of the expected number of boys to girls in the
village? Assume a girl or boy is born with probability 1/2.
1.2 Hardy–Weinberg Revisited
Consider a rare, lethal genetic disease, such that those who carry two copies of the
recessive gene (aa) will not live to reproduce.
(a) Derive the equations connecting the abundances of the AA, Aa, and aa geno-
types (p, 2q, and r) between subsequent generations.
(b) What happens at long times?
1.3 Benford’s Law and Scale Invariance
Prove that Benford’s law is a consequence of scale invariance: If the first digit distribu-
tion does not depend on units (e.g., measuring income in dollars vs euros), Benford’s
law follows.
1.4 Benford’s Law for Second Digit
(a) Using the same assumptions behind the derivation of Benford’s law, derive the
probability distribution of the first two digits of each number.
(b) What is the probability of finding 3 as the second digit of a number following
Benford’s law?
1.5 Drude Model of Electrical Conduction
The microscopic picture of the Drude model is that, while moving through a metal,
electrons can randomly collide with ions. Interactions between electrons are neglected,
and electron–ion interactions are considered short range. The probability of a single
electron collision in any infinitesimal interval of time of duration dt is dt/τ (and the
probability of no collision is 1 − dt/τ).
14 Introduction

(a) Consider a given electron in the metal. Determine the probability of the electron
not colliding within the time interval [0,t].
(b) Assume that a given electron scatters at t = 0 and let T be the time of the
following scattering event. Find the probability of the event that t < T < t + dt.
Also calculate the expected time T  between the two collisions.
(c) Let t = 0 be an arbitrary observation time. Let Tn be the time until the next
collision after t = 0 and Tl be the time since the last collision before t = 0;
Consider the random variable T = Tl + Tn . Determine the distributions of Tl and
Tn , and from them deduce T . Does your answer agree with the result in part
(b)? If not, explain the discrepancy between the two answers.
1.6 Mutating Genome*
Consider an organism with a genome in which mutations happen as a Poisson process
with rate U . Assume that all mutations are neutral (i.e., they do not affect the rate of
reproduction). Assume the genome is large enough that the mutations always happen
at different loci (this is known as the infinite sites model) and are irreversible. We start
at t = 0 when there are no mutations.
(a) What is the probability that the genome does not obtain any new mutations within
the time interval [0,t)?
(b) What is the expected number of mutations for time T ?
(c) Consider a population following the Wright–Fisher model: At each generation,
each of N individuals reproduces, but we keep the population size fixed by ran-
domly sampling N of the 2N newborns. Find the probability of two individuals
having their “first” (latest chronologically) common ancestor t generations ago,
P (t). Hint: Go backwards in time with discrete time steps. What is the continuum
limit of this probability? (i.e., the result for a large population size).
(d) Let us add mutations to the Wright–Fisher model. Assume we sample two indi-
viduals that follow two different lineages for precisely t generations (i.e., their
first common ancestor occured t generations ago). What is P (π|t), the probabil-
ity of π mutations arising during the t generations?
(e) What is P (π), the probability of two individuals being separated by π mutations
after they were born from the same parent? What is the expected value of π? (You
may work in the continuum limit as in (c), corresponding to a large population
size N 1).

Problem credit: Jiseon Min.


2 Random Walks

These motions were such as to satisfy me . . . that they arose neither from currents in
the fluid, nor from its gradual evaporation, but belonged to the particle itself
(Robert Brown)

Consider a small particle suspended in a liquid. Due to the constant collisions with
the surrounding liquid molecules, the path followed by the particle will be erratic, as
was first noticed by Robert Brown in the nineteenth century in experiments where
he was tracking the motion of pollen grains (Brown 1828). As a result, this is often
known as Brownian motion – see also Pearle et al. (2010) for a modern take on
Brown’s experiments, and Fig. 2.1 for a later example of a quantitative study of
particle diffusion by Jean Baptiste Perrin, which we will mention again in Chapter 3.
This process was modeled by Albert Einstein, who derived the so-called diffusion
equation, and understood the nature of the particle’s dynamics. In this chapter, we
will first study a simplified model for diffusion, where, following Einstein’s original
derivation from 1905, time will be discrete (i.e., at every time step the particle will
move in some random direction). We will understand how far the particle typically
gets after making N moves, and what its probability distribution is. These ideas are
central in understanding numerous processes around us: from the dynamics of dif-
fusing particles in liquids as well as in living cells, to modeling the dynamics of the
stock market (which we will get to later in the book, in Chapter 3). In fact, the concept
of “random walks,” as this dynamics is often referred to, will also play an impor-
tant role in our discussion of “Google PageRank,” the algorithm at the heart of the
search engine.

Asking the right question In science, it is often as important (and hard) to ask the right
question than to come up with the right answer. The great statistician Karl Pearson
(1905) sent a letter to Nature magazine posing, quite literally, the problem of the
random walker: given that at every step a person chooses a random direction and walks
a constant number of steps, what is the distribution of their position after N steps? It
is remarkable that random walks were only introduced in the twentieth century, and a
strange coincidence that they were almost simultaneously suggested by Pearson and
Einstein.
16 Random Walks

Figure 2.1 An experimental observation by Perrin of the diffusion of small (spherical) particles
suspended in a liquid. From Perrin (2013).

2.1 Random Walks in 1D

Consider a “random walker” on a one-dimensional lattice. Time will be discrete, and


at every time step the walker will take a step in one of the possible two directions, with
equal probability. What is the mean value of, say, coordinate x, after N steps? From
symmetry, it is clearly zero. But we certainly don’t expect the walker to be precisely
at the origin after a large number of steps. Its typical magnitude away from the origin
may be found by calculating the RMS (root-mean-square) of the trajectories, i.e., the
second moment of the distance from the origin.
Let’s say the walker was at position x after N steps. After an additional step, it
could be in one of two possible positions. Averaging the squared distance between
these two possibilities, conditioned on being at position x at time N , gives us

1
[(x + 1)2 + (x − 1)2 ] = x 2 + 1. (2.1)
2

Upon averaging over the value of x 2 at time N , we find that

xN
2
+1  = xN  + 1;
2
(2.2)

therefore, repeating the argument N − 1 times, we find that

xN
2
 = N. (2.3)
2.1 Random Walks in 1D 17


This implies that the typical distance from the origin scales like N . What about the
position distribution? If N is even, then it is clear that the probability to be a distance
M from the origin after N steps is zero for odd M, and for even M it is
 
1 N 1 N!
pM = N = N , (2.4)
2 R 2 R! (N − R)!
where R is the number of steps to the right, thus R −(N −R) = 2R −N = M. We can
now evaluate this probability for N M using Stirling’s
√  formula,
N which provides an
(excellent) approximation for N !, namely N ! ≈ 2πN Ne . This leads to

1 1 N N +1/2
pM ≈ √ N
2π 2 R R+1/2 (N − R)N −R+1/2
1
= √ e−N log(2)+(N +1/2) log(N )−(R+1/2) log(R)−(N −R+1/2) log(N −R) . (2.5)

We can proceed by using our assumption that N M, implying that R is approxi-
mately equal to N/2.

Choosing the appropriate limit In physics and mathematics, it is often as important to


analyze the results in the relevant limit as it is to derive the exact results. Based on the
previous results we derived, namely, that the variance of the random walker increases
linearly in time, it seems plausible that the limit N M will typically hold (i.e., for
a large N the probability of M not obeying this condition will be small) – can you see
why?

Under this approximation we find that


 
N +M 1
log(R) = log = log(N/2(1 + M/N)) ≈ log(N/2) + M/N − (M/N)2,
2 2
(2.6)

where we used the Taylor series expansion log(1 + x) ≈ x − x 2 /2 + x 3 /3 . . . , valid


for small x. Similarly, we have
 
N −M
log(N − R) = log = log(N/2(1 − M/N))
2
1
≈ log(N/2) − M/N − (M/N)2 . (2.7)
2
Putting this together we find that

(R + 1/2) log(R) + (N − R + 1/2) log(N − R)


1
≈ (R + 1/2) log(N/2) + M/N − (M/N)2
2
1
+ (N − R + 1/2) log(N/2) − M/N − (M/N)2 . (2.8)
2
18 Random Walks

Simplifying leads to
(R + 1/2) log(R) + (N − R + 1/2) log(N − R) ≈ (N + 1) log(N/2) + M 2 /2N .
(2.9)
Finally,
2 M2
pM ≈ √ e− 2N . (2.10)
2πN
Hence the distribution is approximately Gaussian. In fact, this had to be the case since
x is a sum of independent random variables, hence according to the central limit
theorem (see Appendix B for a reminder) it should indeed converge to a Gaussian
distribution! Note that the distribution indeed sums up to 1, since the support of this
Gaussian is only on even sites.
In summary, we learnt that

1. A diffusing particle would get to a distance ∼ t from its starting position after a
time t.
2. The probability distribution describing the particle’s position is approximately
Gaussian.

Random walks in 1D are strange and interesting! The problem set at the end of the
chapter will expose you to some of the peculiarities associated with random walks in
one dimension. Problems 2.6 and 2.7 deal with recurrent vs. transient random walks.
It turns out that in one- and two-dimensional random walks a walk will always return
to the origin sometime in the future (“recurrent random walks”) – but that this is not
the case for higher dimensions, where the random walk is called “transient.” This is
known as Pólya’s theorem. Given that 1D random walks are recurrent, we may ask
what the “first return time” distribution is – the distribution of the time to return to the
origin for the first time. Solving Problems 2.1, 2.3 or 2.9 will show you that this is a
power-law distribution, which, remarkably, has diverging mean – so while you always
return to the origin, the mean time to return is infinite! This property is discussed in
detail in Krapivsky, Redner, and Ben-Naim (2010). In fact, mean first passage times
of random walkers (in any dimension) have a beautiful analogy with resistor networks
(see also Doyle and Snell 1984) and relations with harmonic functions. Additional
peculiarities arise if we consider the distribution of the last time a random walker
returns to the origin within a given time interval. This is studied in Problem 2.2 (see
also Kostinski and Amir 2016).

2.2 Derivation of the Diffusion Equation for Random Walks in Arbitrary


Spatial Dimension

We shall now approach the problem with more generality, following nearly precisely
the derivation by Einstein. We will work in 3D but the approach would be the same
2.2 Derivation of the Diffusion Equation for Random Walks in Arbitrary Spatial Dimension 19

in any dimension. The approach will have discrete time steps, but the step direction
will be a continuous random variable, described by a probability distribution g()
(here  is a vector describing the step in the 3D space – not to be confused with the
Laplacian operator!). We will not limit the random walker to a lattice, though it is
possible to implement such a scenario by taking g() to be a sum of δ-functions (can
you see how?).
We will seek to obtain the probability distribution p(r), i.e., p(r)dV will be the
probability to find the particle in a volume dV around the point r (at some point in
time corresponding to a a given number of steps). If the original problem is cast on a
lattice, this distribution will be relevant to describe the coarse grained problem, when
we shall zoom-out far enough such that we will not care about the details at the level
of the lattice constant.
If at time t the probability distribution is described by p(r,t), let us consider what
it will be a time τ later, where τ denotes the duration of each step. As you can guess,
in a realistic scenario the time of a step is non-constant, and τ would be the mean step
time. Thus, we haven’t lost too much in making time discrete – but we did make an
assumption that a mean time exists. In Chapter 7 we will revisit this point, and show
that in certain situations when the mean time diverges, we can get subdiffusion (slower
spread of the probability distribution over time compared with diffusion).
To find p(r,t + τ), we need to integrate over all space, and consider the probability
to have the “right” jump size to bring us to r. This leads to

p(r,t + τ) = p(r − ,t)d 3 g(). (2.11)

To proceed, we will Taylor expand p, assuming that the probability distribution is


smooth on the scale of the typical jump. If we expand it to first order, we will find that

p(r − ) ≈ p(r) − (∇p) · . (2.12)

If the diffusion process is isotropic in space, there is no difference between a jump in


the ± direction, so the integral associated with the second term trivially vanishes:

((∇p) · )g()d 3  = 0. (2.13)

This means we have to expand to second order:


1  ∂ 2p
p(r − ) ≈ p(r) − (∇p) ·  + i j . (2.14)
2 ∂xi ∂xj r
i,j

To which order should we expand? In deriving both Eqs. 2.6 and 2.14 we had to
decide to which order we should Taylor expand a function. Were we to only retain
the first-order term in the expansion, the results would have been nonsensical. In
principle, we should make sure that the next order in the expansion is negligible
compared with the terms we have kept, but we will often omit this step and rely on
our physical intuition instead in deciding the “correct” order of expansion.
20 Random Walks

Plugging this into Eq. (2.11), we find that



1  ∂ 2p
p(r,t + τ) − p(r,t) ≈ i j g()d 3 . (2.15)
2 ∂xi ∂xj
i,j

Once again we may make further progress if we make assumptions regarding the
symmetries associated with g: If we assume isotropic diffusion then g(x,y,z) =
g(−x,y,z), etc., implying that the only terms that would survive in the integration
are the “diagonal” ones, and they would all be equal. Hence

1  ∂ 2p 2
p(r,t + τ) − p(r,t) ≈  g()d 3 .
2 i
(2.16)
2 ∂x i
i

From symmetry, we can replace 2i g()d 3  = 13 ||||2 g()d 3  = 13 2 ,


where 2  is the second moment of the jump length distribution. Therefore, we
find that
1 2
p(r,t + τ) − p(r,t) ≈ ∇ p2 . (2.17)
6
∂p
Replacing p(r,t + τ) − p(r,t) ≈ dt τ, we finally reach the famous diffusion equation
∂p
= D∇ 2 p, (2.18)
dt
with D ≡ 6τ 1
2 .
In the case of a random walker in dimension d, repeating the same derivation will
reproduce Eq. (2.18) albeit with a diffusion constant D ≡ 2d1τ 2 .

To which order should we expand? Again! One might argue, correctly, that to better
approximate p(r,t + τ) − p(r,t) we should evaluate the partial derivative with respect
to time in the middle of the interval (t,t + τ). Can you see why in the above derivation
it suffices to evaluate it at time t?

Notice that on the way we made another “hidden” assumption: that the second moment

of the jump distribution exists. If it doesn’t, the t scaling that we are familiar with
will break down, and this time we will get superdiffusion (faster spread of the prob-
ability distribution over time compared with diffusion) – this scenario is known as a
Lévy-flight. An interesting case arises when the variance of the step size diverges as
well as the mean time between steps. Should we get sub or super diffusion in this case?
As one may anticipate, the two effects compete with each other, and both options can
occur, depending on the details. We will study this in detail later on in the book, in
Chapter 7.
Returning to Eq. (2.18), we will now find the probability distribution as a function
of space and time for a particle found at the origin at time t = 0. To proceed, let us
Fourier transform the equation, denoting by p̂ the F.T. of the distribution (with respect
to space), to find that
Another Random Scribd Document
with Unrelated Content
ochtend en, nog slaapdronken, waggelend op hun beenen; alles was
gekleurd met een grauwe tint, die met elke minuut lichter werd, tot ze
zich oploste in de eerste zonnestralen, die de dauwdroppels op de
klapperbladeren deden fonkelen.

De stralen daalden lager; ze vielen over de boomen heen op ’t


afdakje van ’t paviljoentje der Van Brakels; toen er onder. In de
luierdstoelen sliepen de twee mannen; de oude, [254]stil en rustig;
wel duizendmaal had hij op ’t land in zoo’n stoel geslapen; de
jongere luid snorkend. Beider gezichten waren opgezwollen en rood
van het drinken en glommen in het zonlicht alsof ze met vet waren
besmeerd. En in het centrum van de karaf met brendy schiep een
straaltje van den lichtbundel een prachtige helder gouden ster,
tintelend en schitterend met vroolijke levendige kleurwisseling bij de
geringste beweging.

Een inlandsche bediende sloop zacht naderbij op zijn bloote voeten;


hij ging ’t galerijtje op, nam de flesch weg en de glazen, bracht die
even achter ’t muurtje, dat het voorerf van het achtererf scheidde, en
zette daar de karaf aan zijn ongewasschen mond.

’t Was Van Brakel of hij blind werd, toen hij, de oogen openend, in de
zon keek.

Hij schopte tegen den stoel van den ouden heer.

„Zeg, zeg pa; ga naar uw t a m p a t .”

Beiden stonden op en sukkelden naar hun kamer, waar ze de


gendie’s voor den mond zetten, veel water dronken en toen nog half
slapend in hun bedden neervielen.

Het was de eerste dag van een nieuw jaar.


De poging gelukte.

Toen Van Brakel eenige dagen later zijn plannen en ontwerpen den
resident aanbood, was deze daar wonderwel tevreden over; hij
beschouwde ze met groote belangstelling; hij zag in hoe nuttig zoo’n
verbindingsweg zou wezen in het fraaiste deel der gemeente en hoe
sierlijk de aanleg zou kunnen zijn; de resident werd er enthousiast
voor en beloofde [255]in alles zijn medewerking, behalve natuurlijk in
’t finantiëele, maar daarom vroeg Van Brakel niet.

Hij ging van ’t residentiehuis naar ’t koopmanskantoor en ook daar


hoorde men hem aan met de grootste welwillendheid, die nog
sterker werd toen men vernam dat de resident de plannen
goedkeurde en diens steun had toegezegd.

’t Was alles fraai en wel; men twijfelde volstrekt niet aan het goed
inzicht en de architectonische bekwaamheden van Van Brakel; men
was ook wel geneigd kapitaal te verstrekken,—maar de soliditeit van
den ingenieur op finantiëel gebied werd betwijfeld en daarom stelde
men hem moeilijke en zeer bindende voorwaarden, waardoor hij en
zijn werk altijd vast lagen in handen van de firma.

Hij nam die voorwaarden aan zonder zich te bedenken; hij was zóó
zeker van zijn zaak!

En er begon voor hem een tijd van groote drukte en werkzaamheid,


welke hem vroeger dan ooit op het pad deed zijn en later dan ooit te
huis deed komen.

Bij de algemeene medewerking ging alles wondervlug; de noodige


terreinen, behoorend bijna uitsluitend aan Chineezen en Arabieren,
werden met de hulp van ’t bestuur gemakkelijk verkregen; de aanleg
van den weg was voor weinig geld, door de gratis-hulp van
dwangarbeiders-personeel, spoedig gereed en weldra had Van
Brakel zijn perceelen afgebakend en voor zooveel noodig schoon
gemaakt en rezen ontzaglijke steenhoopen en bergen kalk en
stapels balken op het terrein. Hij had zijn begrooting goed ingericht,
naar zijn idee; zóó goed, dat hij zichzelven feitelijk bestal; als loon
voor zich had hij er weinig opgebracht in directe cijfers; het meeste
was onder [256]andere posten verscholen.—Bovendien, dat m o e s t
zoo uitkomen voor later, als hij een werk deed voor anderer
rekening; men moest hem dan immers niet kunnen verwijten, dat hij
mat met twee maten. En zoo kreeg hij telkens betrekkelijk aardige
sommetjes in handen, die „vrij” waren gekomen bij de uitbetaling van
werkloonen en leveringen; Lucie, die dat heerlijk vond, maar hem
bitter beklaagde, omdat hij zoo „voort” moest, wendde die in
hoofdzaak aan om hem in zijn weinigen vrijen tijd het leven lekker te
maken. Hij mocht niet meer eten aan de tafel in het
commensalenhuis. Daar moest hij gekleed komen, en k a s i a n ! hij
kwam pas ’s middags te zes uren thuis, doodmoe, en niets was dan
lekkerder, dan na het baden in nachtbroek en kabaai te blijven; er
werd elken avond een extra-dinertje voor hem klaar gemaakt, alles
uit blikjes en altijd iets met truffels, daar hield hij zooveel van,
k a s i a n ! Voor de gezelligheid aten Lucie en haar vader dan met
hem mee, k a s i a n !

Zondags, als er niet werd gewerkt, was het een dag van het meest
volkomen epicurisme, slechts afgewisseld door wandelingen ’s
morgens en rijtoertjes ’s middags en ’s avonds. Met dat al verdiepten
zich Van Brakel en zijn schoonvader zoo dapper in de spiritualiën,
dat de laatste er sufferig onder werd; de ijzeren natuur van den
ingenieur bood als altijd weerstand en hoeveel hij ook dronk des
avonds,—klokke vijf den anderen morgen was hij weer op het werk,
net als in ’s lands dienst.

Dan zette hij er gang in. Er moest, zoo was de afspraak met de
geldschietende firma, een huis worden afgemaakt en verkocht; dat
was niet alleen goed voor ’t geld, maar het stond [257]flink voor de
commanditairen in Europa; die zagen dan, dat er wat binnenkwam.

Toen daar het eerste huis stond, niet te groot, keurig net, met
marmer bevloerd, doelmatig ingedeeld en van alle gemakken
voorzien, kwamen belanghebbenden kijken, want het was te koop
geannonceerd.

Ofschoon hij rondliep, even groetend, maar zonder schijnbaar notitie


van de menschen te nemen, spitste hij de ooren en zag scherp toe.
Nu en dan glimlachte hij. Welzeker, ze zagen het wel! Ze zagen wel
dat hier geen beunhaas aan het werk was geweest, maar een man
van het vak. Alles was solide, alles was haaks. ’t Was niet een dier
talrijke Indische huizen, waarvan men de hoeksteenen met den haak
van een Engelschen wandelstok los kan peuteren en er uit halen,
zoodat het heele huis ten slotte ineenstort,—neen, ’t was, wat een
Hollandsche notaris zou noemen: hecht, sterk en weldoortimmerd.

Deskundigen kwamen het zien en bekeken het met welgevallen;


Chineezen snuffelden rond om na te gaan hoe dit en dat ineenzat,—
maar dáárover was men het eens: er stonden weinig huizen op de
plaats, die zoo goed gebouwd waren. Het bracht een prijs op ver
boven de taxatie, tot groote vreugde van Van Brakel en niet minder
van diens geldschieter. ’t Was voor den ontslagen
waterstaatsingenieur een m o m e n t d e g l o i r e , zooals hij er nog
geen had gekend; en het succes wischte voor het oogenblik alles
schoon; de koopman, die het werkkapitaal had verstrekt, gaf een
partij en de Van Brakels werden geïnviteerd.

Daar zouden zij dan weer komen, midden in de wereld, die hen had
uitgestooten; terug in de kringen, die zich voor hen [258]hadden
gesloten, in het gezelschap van hen, die hun gezelschap hadden
vermeden.
Van Brakel glom van trots en genoegen. Met een glimlach vol
zelfvoldoening om den mond en schitterende oogen liep hij met
groote stappen in ’t voorgalerijtje op en neer.

„Daar komen ze nu al,” zei hij op hoonenden toon. „Daar komen ze


nu al! Met hangende pootjes! Je zult nog wel meer grappen beleven.
Wacht maar! Er zal een tijd komen, dat ik hen trappen kan en dan
z a l ik hen trappen, de ploerten. Ze hebben me genoeg laten slikken
in den laatsten tijd. M i j n dag komt ook: wacht maar! Ik zal het hun
wel inpeperen, dàt beloof ik je.….. De ploerten”… herhaalde hij nog
eens, vol minachting naar buiten spuwend, als deed hij het der
geheele stad in het gezicht.

Lucie lette er niet op; zij was geheel in gepeins verzonken, en


opziende, als iemand, die met haar gedachten ver van tijd en plaats
is, zei ze:

„Ik weet waarachtig niet, wat ik zal aandoen op die partij.”

Toch was zij zenuwachtig.

Zij moesten alles nieuw hebben en hij was niet meer gewoon aan
min of meer voornaam gezelschap in „pakean deftig.”

Het liep echter uitmuntend af. Menschen, die hem in geen maanden
hadden gegroet, spraken hem aan alsof ze voortdurend met hem in
de beste verstandhouding hadden verkeerd; dames, die Lucie van
vroeger kende, behandelden haar als zusters en verzekerden hoe
gelukkig ze waren, dat nu alles zóó geschikt was.

Wat ze meenden, wist Lucie niet goed, maar ze vond het heerlijk. En
ze danste ook weer, al was het niet zooveel als [259]vroeger toen
Herman nog in dienst was en inferieuren had.

’t Was een triomf, waarvoor zij in hun hart dankbaar waren.


Van Brakel zat weer eens aan een hombertafeltje, waar om een
hoog tarief werd gespeeld met oploopenden pot. Hij was niets
vergeten, al had hij ook niets geleerd.

De volgende maand was hij weer lid van de sociëteit. Er waren


nieuwe bestuursleden in dat jaar gekomen en de andere keken zoo
nauw niet; nu het eenmaal was uitgemaakt dat men voortaan Van
Brakel toch overal zou ontmoeten, moest over dat uit ’s lands dienst
geraken de mantel der liefde maar geworpen worden. S c h w a m m
d ’ r ü b e r ! dacht men unaniem en hij deed weer zijn intrede alsof er
niets was gebeurd; en hij ging er weer heen elken avond; hij werd
weer een „steunpilaar”; hij huurde ook een eigen woning, richtte zich
netjes in en leefde weldra juist zooals hij geleefd had als ingenieur
bij den Waterstaat; alleen verteerde hij meer geld en had hij meer
drukte over zich.

Kalm en gelukkig kwamen Jules en Ceciel terug van hun


huwelijksreisje.—Ze namen hun intrek in een logement en maakten
rustig en op hun gemak alles gereed, wat ze noodig hadden om mee
te nemen. Passage naar Europa was besproken en Jules had van
het vermogen, dat hem, toen hij meerderjarig werd, moest worden
uitgekeerd, afrekening ontvangen. Zijn verzoek om het geld in de
zaak zijns vaders te laten, was afgewezen, zoodat hij een andere
belegging moest aanwijzen. Met een zucht had hij het gedaan.

Ceciel had een halven nacht besteed aan het nagaan der
verantwoording. [260]

„Je moet het geld vooral solied beleggen,” zei ze, toen het niet in de
zaak mocht blijven.

„Zeker. Ik wil alleen met een klein beetje speculeeren.”


„Doe het niet,” waarschuwde zij, „wij hebben meer dan genoeg voor
ons tweeën ook bij lage rente.”

„Het maakt een drommelsch verschil. In de zaak rendeerde het 15 a


20 percent.”

„Wat zou het, Jules? Maar als de zaak eens fout ging!”

„A l l o n s ! ” spotte hij. Welk een gek idee had ze daar! „Als de heele
zaak, zooals die nu staat, de zwaarste klappen kreeg, heeft papa
nog persoonlijk fortuin genoeg om à p a r i te liquideeren.”

„Het is mogelijk, maar i k heb het niet op zaken. Ik heb liever solide
staatspapieren, waarvoor men n o o i t bang heeft te zijn. Kom Jules,
doe het maar.….”

En ofschoon hij er maar weinig zin in had, deed hij het ten slotte toch
op haar aandringen.

Zij zat nu nog slechts met één moeilijkheid.

„Waar embarqueeren we?” vroeg zij op een ochtend.

„Wel … aan den kleinen Boom. Waar zouden we anders


embarqueeren, c h é r i e ?”

„Ik ga hier niet aan boord.”

„Maar.….…”

„Om het gejammer van pa en ma nog eens in het publiek te


genieten, geaccompagneerd door tante Du Roy.…..! Ik dank je wel.”

„Maar beste Ciel, hoe drommel moeten we het dan aanleggen? We


kunnen toch niet op de vlucht gaan!”
„Laat dat maar stil aan mij over. Ik ga strakjes naar de [261]oudelui en
zal er met hen over spreken. Pa is een man, die voor zulke dingen
wel raad weet.”

Haar bezwaar tegen tante Du Roy werd erkend.

„Maar ze zal dol wezen,” meende haar moeder, „als je weggaat


zonder afscheid van haar te nemen.”

„Dat zal ik ook niet. We gaan, net als pa zegt, een dag vroeger naar
de naaste havenplaats, waar Jules een vriend heeft, wien hij nog
zoo graag de hand zou drukken. ’s Avonds te voren komen wij
afscheid nemen, met een reiswagen voor de deur, en ’s nachts gaan
we met een tambangan naar boord.”

’t Beviel Jules Geerling maar half. H i j zag er nu zoo’n kwaad niet in,
dat mevrouw Du Roy met veel tranen afscheid nam. Welke haan zou
in Amsterdam, dacht hij, daarnaar kraaien? En dan, hij was nu toch
gebrouilleerd met zijn familie!

’t Was nog stikdonker toen ze gingen. Geerling slaperig en


mopperend. Ceciel druk en opgewonden. Eindelijk was het
oogenblik daar, en zou ze Java verlaten. Haar kisten waren reeds
den vorigen avond naar boord gegaan. Zij reden naar de kali, waar
een tambangan hen wachtte. Er lag een dikke, geelachtige damp
over de plaats; het rook onaangenaam en in het flauwe schemerlicht
zag alles langs den weg er vies en onooglijk uit. Och, ze was zoo
blij, dat ze heenging!

Ook het tweede huis, dat Van Brakel had gebouwd, bracht een
fraaien prijs op, maar daarvan werd zooveel notitie niet genomen.

Het nieuwtje was er af en een „meevaller” was het niet meer.


Alles ging nu overigens zijn gewonen gang. Lucie was weer
teruggekeerd tot haar oude bedrijvigheid van vroeger, al ging het in
den aanvang niet meer zoo van harte. En ’t huishouden [262]kostte
een schat van geld en Van Brakel had voor zijn m e n u s p l a i s i r s
meer noodig dan ooit.

Zij hadden er al eens ruzie over gehad; hij verweet haar dat ze
spilziek was; dat ze vroeger niet het vierde gedeelte gebruikte van
de dranken, die thans werden geschonken. Maar zij was sterk; zij
had een sociëteitsrekening van over de honderd gulden in zijn zak
gevonden en daarmee gewapend, bestreed zij hem.

„Nu maar; er moet toch een eind aan komen,” zei hij later. „Ik zal van
mijn kant ook wat inkrimpen.”

„Je mocht waarlijk wel het voorbeeld geven. Jij verteert met je
homberen, je sociëteit, je havana’s, je paarden en aan je verdere
verteringen, meer alléén dan wij met het geheele huishouden.”

„Je lijkt wel gek.”

„Maar ik zeg de waarheid.”

„Nu goed. Ik z a l mij bekrimpen; ik z a l minder uitgaan en minder


verteren; maar jij zult het ook doen.”

„Heel goed; als jij maar begint.”

Dien avond aan tafel stond hij als gewoonlijk na het dessert dadelijk
op en nam zijn hoed.

„Ik dacht, dat je thuis zoudt blijven?”

„Van avond kan ik niet; ik heb afgesproken; de anderen komen ook.


Morgen.”
Zij keek hem glimlachend aan; zij kende dat morgen!

Toen hij weg was, stak de oude Drütlich een groote pijp op en begon
bier te drinken, waarbij Lucie hem met een glas likeur gezelschap
hield. De eene flesch bier volgde de andere tot Drütlich vond, dat het
tijd werd om over te gaan tot [263]een brendy-soda en Lucie meende,
dat het uur van slapen was aangebroken.

Alleen met een rijtje ajer-blanda-fleschjes en een karaf cognac,


verzette de oude man zijn leed. Het appeltje, dat hij nog had
overgehouden voor den dorst, was reeds lang op; hij teerde nu
geheel op zijn schoonzoon. Van Brakel vroeg daar niet naar.

Wat kon ’t hem schelen! Bovendien, hij wist dat Drütlich in zijn
goeden tijd voor hem ook steeds royaal was geweest en daarmede
nam hij dus genoegen. Maar dien nacht kwam hij erg laat thuis; hij
had heel veel gedronken en was ook voor zichzelven zwaar op de
hand. Onderweg mopperde hij in zijn eentje over de quaestie, die hij
met Lucie had, en voor de eerste maal rekende hij het haar aan als
een soort van verwijt, dat haar vader bij hen aan huis woonde. Toen
hij uit zijn wagen stapte, achter op het erf, voelde Van Brakel, dat zijn
gang eenigszins waggelend was en niet zonder eenige moeite klom
hij de trappen op naar de achtergalerij, waar één lampje brandde.

Hij scharrelde naar het buffet. Er stonden vier leege bierflesschen en


vier dito ajer-blanda-fleschjes. Van Brakel kon zich niet goed houden
bij de gedachte, dat die „ouwe” zooveel bier en brendy-grog in zijn
eentje had verschalkt.

Op zijn eigen suf gezicht verscheen een dom dronkenmanslachje.

„Zoo’n oude nathals!” mompelde hij en zocht grinnikend zijn kamer.


Hij had tegenwoordig een slaapkamer apart. Wel sukkelend en
langzaam, maar toch volhardend, kwam hij er toe zich vrij behoorlijk
te ontkleeden. In zijn bed lachte hij nog en [264]telde op zijn vingers
hardop, om na te gaan hoeveel grogjes zijn schoonvader zich wel
van vier fleschjes ajer-blanda had kunnen maken, maar hij telde
telkens de bierflesschen mee en probeerde dan er die uit ’t hoofd
weer af te trekken, al grinnikend van pret om dien ouden „nathals.”
Maar ’t gelukte hem niet het rekenkunstig vraagstuk op te lossen; de
invloed van het zelf genoten geestrijk vocht was te groot en hij viel in
zijn gewonen korten, maar loodzwaren slaap.

De huizen vonden niet langer dien aftrek. Men had niet gerekend op
het gering aantal menschen in staat en genegen om te koopen. De
Chineezen hadden k o n g s i gemaakt. Waarom zouden zij zich
haasten nu te koopen voor veel geld? Zij zouden hun beurt
afwachten.

Drie, vier huizen gingen goed van de hand, maar toen was het uit.
Op het vijfde werd te weinig geboden; het werd niet gegund en stond
nu daar met een bordje er aan, vermeldend, dat het te huur was of te
koop.

Doch het toeval trof, dat iedereen goed was voorzien en daar de
huurprijs van het nieuwe huis vrij hoog was, schrikte dit ook de
huurders af.

Intusschen werkte Van Brakel voort, als ging hem dat alles niet aan,
schoon hij inwendig zeer ongerust was; als hij op ’t kantoor kwam
om geld te halen, dan kreeg hij het, maar ’t ging niet van harte en hij
moest allerlei klaagliederen aanhooren en zinspelingen op een
speculatie, die dreigde te mislukken; op goed geld, dat naar kwaad
geld werd geworpen; op mooie, maar niet geheel te verwezenlijken
plannen enzoovoort.

Het werd elken keer erger. Telkens kreeg hij, wat hij [265]noodig had
om te kunnen werken, maar telkens onwilliger.

Op een Zaterdag-ochtend, toen hij geld kwam halen om uit te


betalen, iets dat hij altijd zelf deed, stonden de gezichten van de
heeren chefs der firma ernstiger dan ooit.

Van Brakel werd verzocht in een aparte kamer te komen; men ging
zitten en een van de firmanten, zijn bedenkelijk gezicht bewarend,
begon met hem te zeggen, dat het hun verschrikkelijk speet; dat zij
niets liever hadden gedaan dan dóórwerken, maar dat zij er reeds
veel geld hadden ingestoken en dat zij voorzagen er, bleven zij
voortwerken, nog veel meer te moeten insteken.

„Het kan toch waarlijk zooveel niet wezen.”

„Dat is naar men het neemt; het is al dertig mille.”

„’t Is niet mogelijk. En de opbrengst dan van de huizen!”

„Die is er af getrokken.”

„Onmogelijk! Hoe kan dat dertig mille zijn?”

„Het is toch zoo. Maar we dachten wel, dat je het niet zoudt
begrijpen; hier is de rekening.”

Van Brakel kreeg een papier met „Aan’s” en „Per’s” waarvan hij
weinig of niets begreep. Hij zag er getallen op staan van zes cijfers,
waarmede, zoo zei men ter toelichting, hij zich niet behoefde te
bemoeien; dat betrof alleen de boekhouding.
Met een domme uitdrukking op het gelaat, bekeek hij het met zwarte
en roode inktstreepjes bewerkte blauw gelijnde papier.

Hij begreep er niets van dan het eindcijfer, ja, dat zag hij: ’t was over
de dertig mille. Overigens deed de net geschreven rekening-courant
hem denken aan de nota’s, die hijzelf bij gelegenheid indiende
wegens reparaties, met een specificatie van groote en kleine soorten
van spijkers en draadnagels, [266]afmetingen van verwerkt hout
enzoovoort, waaruit evenmin iemand wijs kon worden.

Tegen die gespecificeerde rekeningen viel ook niets in te brengen en


hij begreep, dat er evenmin iets te doen zou zijn tegen die rekening-
courant, waarop millioenen paraisseerden, die niets met zijn
bouwerij te maken hadden en alleen voorkwamen in verband met de
boekhouding.

„Ja, het eindcijfer is zoo. Ik kon het me niet voorstellen. Maar dit is,
dunkt me, toch geen reden om er mee uit te scheiden.”

„Voor u niet,” zei een der chefs met een slim lachje, „maar voor onze
firma wel.”

„Toch niet. De huizen zullen hun geld opbrengen. Men moet een
beetje geduld hebben.”

„Zulke zaken moeten q u i c k gaan,” meende de compagnon, „en dat


gaan ze niet.”

„Dus moet de boel maar zóó blijven liggen?”

„Voorloopig, ja. Wij zullen zien of we iemand kunnen vinden, die den
boel wil overnemen, zooals hij reilt en zeilt.”

„Dat is een zeer pleizierige tijding voor me!”


„Ja, ’t spijt ons erg, maar er is niets aan te doen. Wij mogen niet
verder gaan. We zouden onaangenaamheden krijgen met onze
commanditairen.… Ziet u, we hebben ons er alleen mee ingelaten
om u te helpen, want wij doen anders aan zulke dingen niet. Wij
dachten, dat het flink zou marcheeren als het eenmaal op gang was,
maar dat doet het niet.”

„En nu kunnen wij,” voegde de andere er bij, „niet langer er mee


voortgaan. We moeten nu maar zien er met zoo weinig
kleerscheuren als mogelijk is, af te komen.”

Toen hij ’t kantoor verliet, kon Van Brakel zich het geval [267]eigenlijk
niet best voorstellen. Hij had ’t altijd beschouwd als z i j n bouwerij
en ten slotte bleek, dat hij in ’t geheel geen baas was geweest
hoegenaamd; de winst op de verkochte huizen had de firma
opgestoken en hij had gewerkt voor niet eens het traktement, dat hij
zou bedongen hebben als hij het werk eenvoudig voor iemand had
aangenomen.

„Ik heb het wel gedacht,” zei Drütlich, „ik heb het wel gedacht! Zoo
gaat het altijd in de wereld en overal. Laat je dat een troost zijn.”

Lucie nam het zoo kalm niet op. Zij was woedend en schold op
dezelfde menschen, die ze eerst zoo dankbaar was; ze waren
„dieven” en Van Brakel was een domme vent. Ze schold zoo lang tot
hij ook boos werd, en beiden, opgewonden, elkaar allerlei verwijten
deden en uitmaakten voor al wat leelijk was.

Eerst ’s avonds dronken zij het af, waaraan ook Drütlich meedeed,
schoon hij eigenlijk niets af te drinken had.

En nu begon de teruggang met groote snelheid.


De firma had de heel en half afgewerkte huizen verkocht aan een
schoenmaker, die meer werkte met gesmokkelde opium dan met
pekdraad en als zeer rijk en zeer gemeen bekend stond.

Reeds Zondag kwam hij familiaar bij Van Brakel de voorgalerij


inloopen.

„Zeg, ik heb dien rommel gekocht. Als je wilt kan je blijven


doorwerken; maar je moet niet zoo duur wezen, hoor!”

Van Brakel behandelde hem uit de hoogte. „Dank u. Ik zal er geen


gebruik van maken.”

„Zoo. Ik dacht nogal dat ik je een dienst bewees, en dat meenden de


heeren op ’t kantoor ook. A f i j n , voor jou een ander. Ik wensch het
je.” [268]

De schoenmaker-opiumsmokkelaar ging heen met een nijdigen trek


op zijn onaangenaam gezicht.

„Eer ik nu toch voor zoo’n intensen ploert werkte,” zei Van Brakel,
„schoot ik me liever dood.”

„Je moet ’t zelf weten,” meende Drütlich. „De vent z’n geld is net zoo
goed als dat van een ander.”

„Ik kan mij toch niet feitelijk onder zoo’n schurk stellen?”

„Dat is ook niet noodig. Het is geen zaak van onder of boven. Je
krijgt geld voor je werk. Daarmee is het uit.”

Doch Van Brakel was te lang in ’s lands dienst geweest om in dien


gedachtenloop van zijn schoonvader te kunnen treden. Hij was het
niet met hem eens en hoe de oude Drütlich ook redeneerde, geheel
tegen zijn gewoonte in,—het hielp niet: Van Brakel was er niet toe te
bewegen het werk voor dien „vent” te doen.

„Ze hebben je bij ’t lijf gehad,” zei Drütlich verder. „Ik heb ’t je
gezegd: ze doen het altijd. Spreek er een advocaat over.”

„Waarover?”

„Wel over je contract. Een schriftelijke overeenkomst is nooit zóó of


de partij in wier voordeel zij is gemaakt, is wel eens afgeweken.”

„Wat zou ik er aan hebben!”

„Allicht klop je er een duizend gulden of wat uit.”

Van Brakel volgde dien raad, en inderdaad liet de firma, om van alle
soesah af te wezen, naar zij verklaarde, en uit medelijden met Van
Brakels toestand, zich door diens advocaat tot een uitkeering in geld
overhalen. Maar nu ook, werkte zij hem geregeld tegen. Wat hij ook
beproefde—nergens vond hij meer eenig werk te doen. En terwijl het
beetje [269]beschikbare geld hun door de vingers gleed, twistten zij
elken dag, en werd het huiselijk leven voortdurend ondraaglijker.

Er was, er k o n geen sprake meer zijn van uitgaan of ontvangen, en


er zou ook niemand meer zijn gekomen. Het was maar een vleugje
geweest!

Toch hielden zij het nog maanden vol, tot ook het krediet geheel was
uitgeput.

Van Brakel liep overal, informeerend naar werk of naar een


betrekking, maar men kon hem niet helpen en men wilde ook niet. Of
het de m i s è r e van den laatsten tijd deed, of wel ’t gevolg was van
een langdurig en herhaald misbruik—hij begon te marqueeren; zijn
uiterlijk verried den man, die te veel van zijn gestel had gevergd; zijn
oogen, zijn neus, zijn geheele gezicht begonnen te spreken van
bitter, bier en brendy.

Iedereen behandelde hem nog als een „heer”,—hij was immers een
gediplomeerd man; men had innig medelijden met zijn
omstandigheden; daarbij bleef het. Stuk voor stuk, dat waarde had,
verdween intusschen uit zijn huis, en binnen enkele maanden lag de
boel, zooals hijzelf zei, voor den grond. Moedeloos en verslagen,
huilde Lucie elken dag, tot zij haar leed verzette en meedronk met
haar vader. Als Van Brakel, die langzamerhand tot de jenever bij
Chineezen was afgedaald, dan terugkwam van een vruchteloozen
tocht om werk, was hij drie-kwart dronken, en Lucie en haar vader
waren ook niet normaal. Dan dronken zij voort, eerst elkaar
troostend, tot de demon der tweedracht over hen kwam en een
heftig krakeel losbrak.

Eindelijk vond hij iets. [270]

Het was t o c h bij den schoenmaker, die opium smokkelde.

Tien palen buiten de stad liet die een huis zetten voor den
administrateur zijner rijstlanden. Van Brakel zou slechts het toezicht
houden voor honderd en vijftig gulden in de maand.

Stil verkochten zij ondershands wat ze nog hadden, laadden de


hoogst noodige meubelen op eenige karren, en vertrokken in den
nacht, een lange lijst van schulden achterlatend.

Nabij een desa in de buurt, waar het huis moest worden gebouwd,
had Van Brakel een kleine houten woning gehuurd. Die meubelden
zij met hun bedden, tafels en stoelen, een paar kasten en eenige
lampen; zoo eenvoudig mogelijk.
Ook zoo onverschillig mogelijk,—want het kon Lucie niets meer
schelen. Als zij maar in een luierdstoel kon liggen, met wat te
drinken naast zich, de oude heer om gezelschap te houden, en de
kinderen, smerig en half gekleed, om nu en dan tegen te
schreeuwen, als ze leven maakten, dan kon de rest haar niets
hoegenaamd meer schelen.

Zoo ging hun leven voort, zonder rechtstreeksche ellende, en toch


zoo diep ellendig.

Met een t o e d o n g op, die zijn rood gezicht beschaduwde, een


dikken stok in de hand, een halfvuile kabaja aan, en op bloote
voeten, de pijpen van zijn slaapbroek hoog omgeslagen, ging Van
Brakel ’s morgens naar het werk.

Niemand zou in den Europeeschen koeli-mandoor den netten


ingenieur herkend hebben, die eenige jaren vroeger rondreed in zijn
bendy, met de pet op met zilveren band.

Zoo trok hij uit, al heel vroeg in den morgen, de dampen van den
sterken drank des vorigen avonds nog in het hoofd en een pas
werkenden ochtenddronk in de maag. [271]

Dan ging hij toezicht voeren op het heiwerk in den moerassigen


grond, en terwijl de zon hooger kwam en de fel brandende stralen de
padi rijpten, welke gelend op het veld stond, zoover men zien kon
naar alle kanten, leunde Van Brakel op zijn stok onder het atappen
afdakje, dat hij voor zich had laten maken. Zijn oogen vielen dicht;
het was zoo warm, en hij zoo sufferig! Eentonig klonk het heilied.…
B o e m ! Daar viel weer ’t blok op den paal. Half droomend
glimlachte hij. Het heien! Daar stond hij als kind in Holland zoo graag
bij te kijken, en hij genoot als de vroolijke heibaas met den rood
baaien borstrok aan, zijn stem verhief:
Haal op de hei!
Gewassen.… Boem!
Al in de Mei.

Ja, dat was toch heel anders dan hier de dreun volgens die andere
gamelan toonladder, dreinend en sleepend.

Hidong, hidong.
Kapal api loeda amboong
Oleh, oleh.… oleh.… Boem!

Maar ’t was toch eigenlijk ’t zelfde. Hij had altijd zooveel gehouden
van al wat tot bouwen, timmeren en metselen in betrekking stond. ’t
Was thuis aangemoedigd: hij was bestemd voor het
ingenieursvak.… Toen hij „er door” was, huilde mama van vreugde.
Ze moest ’t nu eens kunnen zien! Gelukkig was ze dood.… Dat
heien toch.… heel anders hier! Wat trekken de poldergasten in
Holland flink, en hoe vroolijk zingt de baas, als het n i v e a u haast is
bereikt, zijn:

Hei op! Haal op!


Heit dat paaltje maar op z’n kop!.…

[272]

Boem! sloeg het op ’t blok vóór hem. Hè, dat viel nu al heel komiek!
En zachtjes neuriede hij, al voortdommelend mee met den
inlandschen heibaas:

Api abang.
Api-nja abang.
Olah, olah,—olah!

„M a n d o e r ,” riep een schorre stem. „Zeg, als jij staat te slapen op


’t werk, dan heb ik je hier niet noodig, hoor!”
Verschrikt had Van Brakel de oogen geopend; zijn hand omklemde
den zwaren stok; zijn gezicht was doodsbleek en zijn door ’t vele
drinken waterige oogen, staarden dreigend den schoenmaker aan,
die voor hem stond.

„Nu,” zei deze, even schor lachend als hij sprak. „Je hoeft me zoo
vervaarlijk niet aan te kijken, omdat ik je „mandoer” noemde; ’t was
maar uit gekheid, ofschoon je toch anders mandoers-werk doet.
Houd asjeblieft je oogen open, dat is alles!”

De schoenmaker ging verder. Van Brakel stond nog een minuut


kaarsrecht; toen zakte hij weer ineen; zijn gezicht zag er weer even
dof en verloopen uit; met de schouders maakte hij een beweging, die
voor hem zelf zijn onverschilligheid moest te kennen geven; hij
lachte schamper: „Mandoer! Ook goed!”

Uit een fleschje, dat hij in een zak van zijn kabaja droeg, nam hij een
flinke teug, kurkte het weer en smakte met de lippen. „Mandoer! Ook
goed!” herhaalde hij, en keek naar ’t werk.
Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

textbookfull.com

You might also like