100% found this document useful (4 votes)
60 views59 pages

Deep Learning Pipeline: Building A Deep Learning Model With Tensorflow 1St Edition Hisham El-Amir

The document promotes various ebooks related to deep learning, including titles like 'Deep Learning Pipeline' and 'Learning TensorFlow.' It provides links to download these ebooks in multiple formats from textbookfull.com. The content covers foundational concepts, setting up environments, and practical applications in deep learning using TensorFlow.

Uploaded by

hawelmerrad
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (4 votes)
60 views59 pages

Deep Learning Pipeline: Building A Deep Learning Model With Tensorflow 1St Edition Hisham El-Amir

The document promotes various ebooks related to deep learning, including titles like 'Deep Learning Pipeline' and 'Learning TensorFlow.' It provides links to download these ebooks in multiple formats from textbookfull.com. The content covers foundational concepts, setting up environments, and practical applications in deep learning using TensorFlow.

Uploaded by

hawelmerrad
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 59

Explore the full ebook collection and download it now at textbookfull.

com

Deep Learning Pipeline: Building a Deep Learning


Model with TensorFlow 1st Edition Hisham El-Amir

https://textbookfull.com/product/deep-learning-pipeline-
building-a-deep-learning-model-with-tensorflow-1st-edition-
hisham-el-amir/

OR CLICK HERE

DOWLOAD EBOOK

Browse and Get More Ebook Downloads Instantly at https://textbookfull.com


Click here to visit textbookfull.com and download textbook now
Your digital treasures (PDF, ePub, MOBI) await
Download instantly and pick your perfect format...

Read anywhere, anytime, on any device!

Learning Tensorflow A Guide to Building Deep Learning


Systems 1st Edition Tom Hope

https://textbookfull.com/product/learning-tensorflow-a-guide-to-
building-deep-learning-systems-1st-edition-tom-hope/

textbookfull.com

Deep Learning with Python Develop Deep Learning Models on


Theano and TensorFLow Using Keras Jason Brownlee

https://textbookfull.com/product/deep-learning-with-python-develop-
deep-learning-models-on-theano-and-tensorflow-using-keras-jason-
brownlee/
textbookfull.com

Deep Learning on Windows: Building Deep Learning Computer


Vision Systems on Microsoft Windows Thimira Amaratunga

https://textbookfull.com/product/deep-learning-on-windows-building-
deep-learning-computer-vision-systems-on-microsoft-windows-thimira-
amaratunga/
textbookfull.com

Deep Learning on Windows Building Deep Learning Computer


Vision Systems on Microsoft Windows 1st Edition Thimira
Amaratunga
https://textbookfull.com/product/deep-learning-on-windows-building-
deep-learning-computer-vision-systems-on-microsoft-windows-1st-
edition-thimira-amaratunga/
textbookfull.com
Applied Neural Networks with TensorFlow 2: API Oriented
Deep Learning with Python Orhan Gazi Yalç■n

https://textbookfull.com/product/applied-neural-networks-with-
tensorflow-2-api-oriented-deep-learning-with-python-orhan-gazi-yalcin/

textbookfull.com

Pro Deep Learning with TensorFlow: A Mathematical Approach


to Advanced Artificial Intelligence in Python 1st Edition
Santanu Pattanayak
https://textbookfull.com/product/pro-deep-learning-with-tensorflow-a-
mathematical-approach-to-advanced-artificial-intelligence-in-
python-1st-edition-santanu-pattanayak/
textbookfull.com

Deep Learning with Python 1st Edition François Chollet

https://textbookfull.com/product/deep-learning-with-python-1st-
edition-francois-chollet/

textbookfull.com

Deep Learning with R 1st Edition François Chollet

https://textbookfull.com/product/deep-learning-with-r-1st-edition-
francois-chollet/

textbookfull.com

Deep Learning With Pytorch 1st Edition Eli Stevens

https://textbookfull.com/product/deep-learning-with-pytorch-1st-
edition-eli-stevens/

textbookfull.com
Deep Learning
Pipeline
Building a Deep Learning Model
with TensorFlow

Hisham El-Amir
Mahmoud Hamdy
Deep Learning Pipeline
Building a Deep Learning
Model with TensorFlow

Hisham El-Amir
Mahmoud Hamdy
Deep Learning Pipeline: Building a Deep Learning Model with TensorFlow
Hisham El-Amir Mahmoud Hamdy
Jizah, Egypt Jizah, Egypt

ISBN-13 (pbk): 978-1-4842-5348-9 ISBN-13 (electronic): 978-1-4842-5349-6


https://doi.org/10.1007/978-1-4842-5349-6

Copyright © 2020 by Hisham El-Amir and Mahmoud Hamdy


This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or
part of the material is concerned, specifically the rights of translation, reprinting, reuse of
illustrations, recitation, broadcasting, reproduction on microfilms or in any other physical way,
and transmission or information storage and retrieval, electronic adaptation, computer software,
or by similar or dissimilar methodology now known or hereafter developed.
Trademarked names, logos, and images may appear in this book. Rather than use a trademark
symbol with every occurrence of a trademarked name, logo, or image we use the names, logos,
and images only in an editorial fashion and to the benefit of the trademark owner, with no
intention of infringement of the trademark.
The use in this publication of trade names, trademarks, service marks, and similar terms, even if
they are not identified as such, is not to be taken as an expression of opinion as to whether or not
they are subject to proprietary rights.
While the advice and information in this book are believed to be true and accurate at the date of
publication, neither the authors nor the editors nor the publisher can accept any legal
responsibility for any errors or omissions that may be made. The publisher makes no warranty,
express or implied, with respect to the material contained herein.
Managing Director, Apress Media LLC: Welmoed Spahr
Acquisitions Editor: Aaron Black
Development Editor: James Markham
Coordinating Editor: Jessica Vakili
Distributed to the book trade worldwide by Springer Science+Business Media New York,
233 Spring Street, 6th Floor, New York, NY 10013. Phone 1-800-SPRINGER, fax (201) 348-4505,
e-mail [email protected], or visit www.springeronline.com. Apress Media, LLC is a
California LLC and the sole member (owner) is Springer Science + Business Media Finance Inc
(SSBM Finance Inc). SSBM Finance Inc is a Delaware corporation.
For information on translations, please e-mail [email protected], or visit www.apress.com/
rights-permissions.
Apress titles may be purchased in bulk for academic, corporate, or promotional use. eBook
versions and licenses are also available for most titles. For more information, reference our Print
and eBook Bulk Sales web page at www.apress.com/bulk-sales.
Any source code or other supplementary material referenced by the author in this book is available
to readers on GitHub via the book’s product page, located at www.apress.com/978-1-4842-5348-9.
For more detailed information, please visit www.apress.com/source-code.
Printed on acid-free paper
Table of Contents
About the Authors�������������������������������������������������������������������������������xv
About the Technical Reviewer����������������������������������������������������������xvii
Introduction���������������������������������������������������������������������������������������xix

Part I: Introduction����������������������������������������������������������������������1
Chapter 1: A Gentle Introduction����������������������������������������������������������3
Information Theory, Probability Theory, and Decision Theory�������������������������������4
Information Theory������������������������������������������������������������������������������������������4
Probability Theory��������������������������������������������������������������������������������������������6
Decision Theory�����������������������������������������������������������������������������������������������8
Introduction to Machine Learning�����������������������������������������������������������������������10
Predictive Analytics and Its Connection with Machine learning��������������������11
Machine Learning Approaches����������������������������������������������������������������������12
From Machine Learning to Deep Learning����������������������������������������������������������19
Lets’ See What Some Heroes of Machine Learning Say About the Field������������19
Connections Between Machine Learning and Deep Learning�����������������������20
Difference Between ML and DL���������������������������������������������������������������������21
Why Should We Learn About Deep Learning (Advantages of
Deep learning)?���������������������������������������������������������������������������������������������23
Disadvantages of Deep Learning (Cost of Greatness)�����������������������������������24
Introduction to Deep Learning����������������������������������������������������������������������������25
Machine Learning Mathematical Notations��������������������������������������������������������28
Summary������������������������������������������������������������������������������������������������������������36

iii
Table of Contents

Chapter 2: Setting Up Your Environment��������������������������������������������37


Background���������������������������������������������������������������������������������������������������������37
Python 2 vs. Python 3������������������������������������������������������������������������������������38
Installing Python�������������������������������������������������������������������������������������������������38
Python Packages�������������������������������������������������������������������������������������������40
IPython�����������������������������������������������������������������������������������������������������������41
Jupyter����������������������������������������������������������������������������������������������������������43
Packages Used in the Book���������������������������������������������������������������������������������50
NumPy�����������������������������������������������������������������������������������������������������������50
SciPy��������������������������������������������������������������������������������������������������������������50
Pandas�����������������������������������������������������������������������������������������������������������51
Matplotlib������������������������������������������������������������������������������������������������������51
NLTK��������������������������������������������������������������������������������������������������������������52
Scikit-learn����������������������������������������������������������������������������������������������������52
Gensim����������������������������������������������������������������������������������������������������������53
TensorFlow����������������������������������������������������������������������������������������������������53
Keras�������������������������������������������������������������������������������������������������������������56
Summary������������������������������������������������������������������������������������������������������������56

Chapter 3: A Tour Through the Deep Learning Pipeline����������������������57


Deep Learning Approaches���������������������������������������������������������������������������������58
What Is Deep Learning����������������������������������������������������������������������������������58
Biological Deep Learning�������������������������������������������������������������������������������58
What Are Neural Networks Architectures?����������������������������������������������������62
Deep Learning Pipeline���������������������������������������������������������������������������������������68
Define and Prepare Problem�������������������������������������������������������������������������69
Summarize and Understand Data������������������������������������������������������������������70
Process and Prepare Data�����������������������������������������������������������������������������71

iv
Table of Contents

Evaluate Algorithms���������������������������������������������������������������������������������������72
Improve Results���������������������������������������������������������������������������������������������73
Fast Preview of the TensorFlow Pipeline������������������������������������������������������������74
Tensors—the Main Data Structure����������������������������������������������������������������75
First Session��������������������������������������������������������������������������������������������������76
Data Flow Graphs������������������������������������������������������������������������������������������78
Tensor Properties������������������������������������������������������������������������������������������81
Summary������������������������������������������������������������������������������������������������������������83

Chapter 4: Build Your First Toy TensorFlow app���������������������������������85


Basic Development of TensorFlow����������������������������������������������������������������������85
Hello World with TensorFlow�������������������������������������������������������������������������86
Simple Iterations�������������������������������������������������������������������������������������������87
Prepare the Input Data����������������������������������������������������������������������������������88
Doing the Gradients���������������������������������������������������������������������������������������91
Linear Regression�����������������������������������������������������������������������������������������������93
Why Linear Regression?��������������������������������������������������������������������������������93
What Is Linear Regression?���������������������������������������������������������������������������93
Dataset Description���������������������������������������������������������������������������������������94
Full Source Code�������������������������������������������������������������������������������������������99
XOR Implementation Using TensorFlow������������������������������������������������������������101
Full Source Code�����������������������������������������������������������������������������������������107
Summary����������������������������������������������������������������������������������������������������������109

Part II: Data������������������������������������������������������������������������������111


Chapter 5: Defining Data�������������������������������������������������������������������113
Defining Data����������������������������������������������������������������������������������������������������114
Why Should You Read This Chapter?����������������������������������������������������������������114
Structured, Semistructured, and Unstructured Data�����������������������������������������115

v
Table of Contents

Tidy Data�����������������������������������������������������������������������������������������������������������117
Divide and Conquer�������������������������������������������������������������������������������������������118
Tabular Data������������������������������������������������������������������������������������������������������119
Quantitative​ vs. ​Qualitative​ Data�����������������������������������������������������������������119
Example—the Titanic����������������������������������������������������������������������������������119
Divide and Conquer�������������������������������������������������������������������������������������121
Making a Checkpoint�����������������������������������������������������������������������������������122
The Four Levels of Data�������������������������������������������������������������������������������122
The Nominal Level���������������������������������������������������������������������������������������123
The Ordinal Level�����������������������������������������������������������������������������������������125
Quick Recap and Check�������������������������������������������������������������������������������129
The Interval Level����������������������������������������������������������������������������������������130
Examples of Interval Level Data������������������������������������������������������������������130
What Data Is Like at the Interval Level��������������������������������������������������������131
Mathematical Operations Allowed for Interval��������������������������������������������131
The Ratio Level��������������������������������������������������������������������������������������������134
Summarizing All Levels Table 5-1����������������������������������������������������������������136
Text Data�����������������������������������������������������������������������������������������������������������137
What Is Text Processing and What Is the Level of Importance of
Text Processing?�����������������������������������������������������������������������������������������137
IMDB—Example������������������������������������������������������������������������������������������138
Images Data������������������������������������������������������������������������������������������������139
Summary����������������������������������������������������������������������������������������������������������144

Chapter 6: Data Wrangling and Preprocessing���������������������������������147


The Data Fields Pipelines Revisited������������������������������������������������������������������148
Giving You a Reason������������������������������������������������������������������������������������148
Where Is Data Cleaning in the Process?������������������������������������������������������149

vi
Table of Contents

Data Loading and Preprocessing����������������������������������������������������������������������150


Fast and Easy Data Loading������������������������������������������������������������������������150
Missing Data�����������������������������������������������������������������������������������������������������158
Empties��������������������������������������������������������������������������������������������������������159
Is It Ever Useful to Fill Missing Data Using a Zero Instead of an
Empty or Null?���������������������������������������������������������������������������������������������159
Managing Missing Features������������������������������������������������������������������������160
Dealing with Big Datasets���������������������������������������������������������������������������������161
Accessing Other Data Formats�������������������������������������������������������������������������163
Data Preprocessing�������������������������������������������������������������������������������������������164
Data Augmentation�������������������������������������������������������������������������������������������169
Image Crop��������������������������������������������������������������������������������������������������172
Crop and Resize�������������������������������������������������������������������������������������������172
Crop to Bounding Box����������������������������������������������������������������������������������174
Flipping��������������������������������������������������������������������������������������������������������175
Rotate Image�����������������������������������������������������������������������������������������������177
Translation���������������������������������������������������������������������������������������������������178
Transform����������������������������������������������������������������������������������������������������179
Adding Salt and Pepper Noise���������������������������������������������������������������������180
Convert RGB to Grayscale����������������������������������������������������������������������������181
Change Brightness��������������������������������������������������������������������������������������181
Adjust Contrast��������������������������������������������������������������������������������������������182
Adjust Hue���������������������������������������������������������������������������������������������������183
Adjust Saturation�����������������������������������������������������������������������������������������184
Categorical and Text data����������������������������������������������������������������������������������185
Data Encoding���������������������������������������������������������������������������������������������186
Performing One-Hot Encoding on Nominal Features�����������������������������������188
Can You Spot the Problem?�������������������������������������������������������������������������189

vii
Table of Contents

A Special Type of Data: Text�������������������������������������������������������������������������190


So Far, Everything Has Been Pretty Good, Hasn’t It?�����������������������������������195
Tokenization, Stemming, and Stop Words���������������������������������������������������201
Summary����������������������������������������������������������������������������������������������������������206

Chapter 7: Data Resampling�������������������������������������������������������������207


Creating Training and Test Sets�������������������������������������������������������������������������208
Cross-Validation������������������������������������������������������������������������������������������������209
Validation Set Technique�����������������������������������������������������������������������������210
Leave-One-Out Cross-Validation (LOOCV)���������������������������������������������������213
K-Fold Cross-Validation�������������������������������������������������������������������������������216
Bootstrap����������������������������������������������������������������������������������������������������������217
Bootstrap in Statistics���������������������������������������������������������������������������������218
Tips to Use Bootstrap (Resampling with Replacement)�������������������������������220
Generators��������������������������������������������������������������������������������������������������������223
What Are Keras Generators?�����������������������������������������������������������������������223
Data Generator��������������������������������������������������������������������������������������������225
Callback�������������������������������������������������������������������������������������������������������226
Summary����������������������������������������������������������������������������������������������������������231

Chapter 8: Feature Selection and Feature Engineering��������������������233


Dataset Used in This Chapter����������������������������������������������������������������������������234
Dimensionality Reduction—Questions to Answer��������������������������������������������236
What Is Dimensionality Reduction?�������������������������������������������������������������237
When Should I Use Dimensionality Reduction?�������������������������������������������239
Unsupervised Dimensionality Reduction via Principal Component
Analysis (PCA)���������������������������������������������������������������������������������������������������240
Total and Explained Variance�����������������������������������������������������������������������243
Feature Selection and Filtering�������������������������������������������������������������������������243

viii
Table of Contents

Principal Component Analysis���������������������������������������������������������������������������247


Nonnegative Matrix Factorization����������������������������������������������������������������256
Sparse PCA�������������������������������������������������������������������������������������������������������257
Kernel PCA��������������������������������������������������������������������������������������������������������259
Atom Extraction and Dictionary Learning���������������������������������������������������������261
Latent Dirichlet Allocation (LDA)�����������������������������������������������������������������������262
Latent Dirichlet Allocation (LDA in NLP)�������������������������������������������������������263
Code Example Using gensim�����������������������������������������������������������������������267
LDA vs. PCA�������������������������������������������������������������������������������������������������������269
ZCA Whitening���������������������������������������������������������������������������������������������������272
Summary����������������������������������������������������������������������������������������������������������276

Part III: TensorFlow������������������������������������������������������������������277


Chapter 9: Deep Learning Fundamentals������������������������������������������279
Perceptron��������������������������������������������������������������������������������������������������������280
Single Perceptron����������������������������������������������������������������������������������������290
Multilayer Perceptron����������������������������������������������������������������������������������291
Recap����������������������������������������������������������������������������������������������������������292
Different Neural Network Layers�����������������������������������������������������������������������293
Input Layer���������������������������������������������������������������������������������������������������294
Hidden Layer(s)��������������������������������������������������������������������������������������������294
Output Layer������������������������������������������������������������������������������������������������295
Shallow vs. Deep Neural Networks�������������������������������������������������������������������295
Activation Functions������������������������������������������������������������������������������������������297
Types of Activation Functions����������������������������������������������������������������������299
Recap����������������������������������������������������������������������������������������������������������305
Gradient Descent����������������������������������������������������������������������������������������������305
Recap����������������������������������������������������������������������������������������������������������307

ix
Table of Contents

Batch vs. Stochastic vs. Mini-Batch Gradient Descent�������������������������������������308


Batch Gradient Descent�������������������������������������������������������������������������������308
Stochastic Gradient Descent�����������������������������������������������������������������������309
Mini-batch Gradient Descent�����������������������������������������������������������������������310
Recap����������������������������������������������������������������������������������������������������������311
Loss function and Backpropagation������������������������������������������������������������������312
Loss Function����������������������������������������������������������������������������������������������316
Backpropagation�����������������������������������������������������������������������������������������319
Exploding Gradients������������������������������������������������������������������������������������������330
Re-Design the Network Model��������������������������������������������������������������������332
Use Long Short-Term Memory Networks����������������������������������������������������332
Use Gradient Clipping����������������������������������������������������������������������������������332
Use Weight Regularization���������������������������������������������������������������������������333
Vanishing Gradients������������������������������������������������������������������������������������������333
Vanishing Gradients Problem����������������������������������������������������������������������334
TensorFlow Basics��������������������������������������������������������������������������������������������336
Placeholder vs. Variable vs. Constant����������������������������������������������������������337
Gradient-Descent Optimization Methods from a Deep-Learning
Perspective��������������������������������������������������������������������������������������������������338
Learning Rate in the Mini-batch Approach to Stochastic
Gradient Descent�����������������������������������������������������������������������������������������343
Summary����������������������������������������������������������������������������������������������������������343

Chapter 10: Improving Deep Neural Networks���������������������������������345


Optimizers in TensorFlow����������������������������������������������������������������������������������345
The Notation to Use�������������������������������������������������������������������������������������346
Momentum��������������������������������������������������������������������������������������������������������347
Nesterov Accelerated Gradient��������������������������������������������������������������������348
Adagrad�������������������������������������������������������������������������������������������������������349

x
Table of Contents

Adadelta������������������������������������������������������������������������������������������������������350
RMSprop������������������������������������������������������������������������������������������������������351
Adam�����������������������������������������������������������������������������������������������������������352
Nadam (Adam + NAG)���������������������������������������������������������������������������������353
Choosing the Learning Rate������������������������������������������������������������������������������354
Dropout Layers and Regularization�������������������������������������������������������������������357
Normalization Techniques���������������������������������������������������������������������������������359
Batch Normalization������������������������������������������������������������������������������������360
Weight Normalization����������������������������������������������������������������������������������361
Layer Normalization������������������������������������������������������������������������������������362
Instance Normalization��������������������������������������������������������������������������������363
Group Normalization������������������������������������������������������������������������������������364
Summary����������������������������������������������������������������������������������������������������������365

Chapter 11: Convolutional Neural Network��������������������������������������367


What is a Convolutional Neural Network�����������������������������������������������������������368
Convolution Operation���������������������������������������������������������������������������������������369
One-Dimensional Convolution���������������������������������������������������������������������369
Two-Dimensional Convolution���������������������������������������������������������������������371
Padding and Stride��������������������������������������������������������������������������������������372
Common Image-Processing Filters�������������������������������������������������������������������375
Mean and Median Filters�����������������������������������������������������������������������������375
Gaussian Filter���������������������������������������������������������������������������������������������382
Sobel Edge-Detection Filter�������������������������������������������������������������������������385
Identity Transform����������������������������������������������������������������������������������������390
Convolutional Neural Networks�������������������������������������������������������������������������390

xi
Table of Contents

Layers of Convolutional Neural Networks���������������������������������������������������������391


Input Layer���������������������������������������������������������������������������������������������������393
Convolutional layer��������������������������������������������������������������������������������������393
Pooling Layer�����������������������������������������������������������������������������������������������396
Backpropagation Through the Convolutional and Pooling Layers���������������������397
Weight Sharing Through Convolution and Its Advantages��������������������������������399
Translation Equivariance and Invariance����������������������������������������������������������400
Case Study—Digit Recognition on the CIFAR-10 Dataset���������������������������������403
Summary����������������������������������������������������������������������������������������������������������413

Chapter 12: Sequential Models���������������������������������������������������������415


Recurrent Neural Networks������������������������������������������������������������������������������415
Language Modeling�������������������������������������������������������������������������������������������420
Backpropagation Through Time������������������������������������������������������������������������424
Vanishing and Exploding Gradient Problems in RNN����������������������������������������429
The Solution to Vanishing and Exploding Gradients Problems in RNNs������������432
Long Short-Term Memory���������������������������������������������������������������������������������433
Case Study—Digit Identification on the MNIST Dataset�����������������������������������438
Gated Recurrent Unit�����������������������������������������������������������������������������������������438
Bidirectional RNN (Bi-RNN)�������������������������������������������������������������������������������445
Summary����������������������������������������������������������������������������������������������������������446

Part IV: Applying What You’ve Learned������������������������������������447


Chapter 13: Selected Topics in Computer Vision������������������������������449
Different Architectures in Convolutional Neural Networks��������������������������������450
LeNet�����������������������������������������������������������������������������������������������������������451
AlexNet��������������������������������������������������������������������������������������������������������453
VGG��������������������������������������������������������������������������������������������������������������456
ResNet���������������������������������������������������������������������������������������������������������458

xii
Table of Contents

Transfer Learning����������������������������������������������������������������������������������������������460
What Is a Pretrained Model, and Why Use It?����������������������������������������������461
How to Use a Pretrained Model?�����������������������������������������������������������������462
Ways to Fine-Tune the Model����������������������������������������������������������������������463
Pretrained VGG19�����������������������������������������������������������������������������������������464
Summary����������������������������������������������������������������������������������������������������������469

Chapter 14: Selected Topics in Natural Language Processing���������471


Vector Space Model������������������������������������������������������������������������������������������472
Vector Representation of Words������������������������������������������������������������������������475
Word2Vec����������������������������������������������������������������������������������������������������������476
Continuous Bag of Words����������������������������������������������������������������������������476
Skip-Gram Model for Word Embeddings�����������������������������������������������������486
GloVe�����������������������������������������������������������������������������������������������������������492
Summary����������������������������������������������������������������������������������������������������������494

Chapter 15: Applications������������������������������������������������������������������495


Case Study—Tabular Dataset���������������������������������������������������������������������������495
Understanding the Dataset��������������������������������������������������������������������������495
Preprocessing Dataset��������������������������������������������������������������������������������505
Building the Model��������������������������������������������������������������������������������������510
Case Study—IMDB Movie Review Data with Word2Vec�����������������������������������515
Case Study—Image Segmentation�������������������������������������������������������������������525
Summary����������������������������������������������������������������������������������������������������������535

Index�������������������������������������������������������������������������������������������������537

xiii
About the Authors
Hisham El-Amir is a data scientist with expertise in machine learning,
deep learning, and statistics. He currently lives and works in Cairo, Egypt.
In his work projects, he faces challenges ranging from natural language
processing (NLP), behavioral analysis, and machine learning to distributed
processing. He is very passionate about his job and always tries to stay
updated about the latest developments in data science technologies,
attending meetups, conferences, and other events.

Mahmoud Hamdy is a machine learning engineer who works and lives


in Egypt. His primary area of study is the overlap between knowledge,
logic, language, and learning. He works helping to train machine learning
and deep learning models to distil large amounts of unstructured,
semistructured, and structured data into new knowledge about the world
by using methods ranging from deep learning to statistical relational
learning. He applies strong theoretical and practical skills in several areas
of machine learning, to find novel and effective solutions for interesting
and challenging problems in such interconnections.

xv
About the Technical Reviewer
Vishwesh Ravi Shrimali graduated in 2018 from BITS Pilani, where
he studied mechanical engineering. Since then, he has been working
with BigVision LLC on deep learning and computer vision, and is also
involved in creating official OpenCV courses. He has a keen interest
in programming and AI, and has applied that interest in mechanical
engineering projects. He has also written multiple blogs on OpenCV and
deep learning on LearnOpenCV, a leading blog on computer vision. He has
also co-authored Machine Learning for OpenCV4 (2nd edition). When he
is not writing blogs or working on projects, he likes to go on long walks or
play his acoustic guitar.

xvii
Introduction
Artificial intelligence (AI) is the field of embeddings human thinking into
computers: in other words, creating an artificial brain that mimics the
functions of the biological brain. Whatever the human can do intelligently
is now required to be moved into machines. First-generation AI focuses
on problems that can be formally described by humans. Using AI, steps
for doing something intelligent are described in a form of instructions
that machines follow. Machines follow humans without changes. These
features are characteristic of the first era of AI.
Humans can fully describe only simple problems such as chess,
and fail to describe more complicated problems. In chess, the problem
can be simply explained by representing the board as a matrix of size
8×8, describing each piece and how it moves and describing the goals.
Machines will be restricted to those tasks formally described by humans.
By programming such instructions, machines can play chess intelligently.
Machine intelligence is now artificial. The machine itself is not intelligent,
but humans have transferred their intelligence to the machine in the
form of several static lines of code. “Static” means that the behavior is the
same in all cases. The machine, in this case, is tied to the human and can’t
work on its own. This is like a master–slave relationship. The human is the
master and the machines are the slaves, which just follow the human’s
orders and no more.
To make the machine able to recognize objects, we can give it previous
knowledge from experts in a way the machine can understand. Such
knowledge-based systems form the second era of AI. One of the challenges
in such systems is how to handle uncertainty and unknowns. Humans

xix
Introduction

can recognize objects even in different and complex environments, and


are able to handle uncertainty and unknowns intelligently, but machines
can’t.

The Goal
Deep learning is a branch of machine learning where you model the world
in terms of a hierarchy of concepts. This pattern of learning is similar to
the way a human brain learns, and it allows computers to model complex
concepts that often go unnoticed in other traditional methods of modeling.
Hence, in the modern computing paradigm, deep learning plays a vital
role in modeling complex real-world problems, especially by leveraging
the massive amount of unstructured data available today.
Because of the complexities involved in a deep learning model,
many times it is treated as a black box by people using it. However, to
derive the maximum benefit from this branch of machine learning,
one needs to uncover the hidden mystery by looking at the science and
mathematics associated with it. In this book, great care has been taken
to explain the concepts and techniques associated with deep learning
from a mathematical as well as a scientific viewpoint. Also, the first
chapter is totally dedicated to building the mathematical base required
to comprehend deep learning concepts with ease. TensorFlow has been
chosen as the deep learning package because of its flexibility for research
purposes and its ease of use. Another reason for choosing TensorFlow is its
capability to load models with ease in a live production environment using
its serving capabilities.
In summary, Deep Learning Pipeline should provide practical expertise
so you can learn deep learning pipeline from scratch in such a way that
you can deploy meaningful deep learning solutions. This book will
allow you to get up to speed quickly using TensorFlow and to optimize
different deep learning architectures. All the practical aspects of deep

xx
Introduction

learning that are relevant in any industry are emphasized in this book.
You will be able to use the prototypes demonstrated to build new deep
learning applications. The code presented in the book is available in the
form of iPython notebooks and scripts that allow you to try out examples
and extend them in interesting ways. You will be equipped with the
mathematical foundation and scientific knowledge to pursue research in
this field and give back to the community.
All code in the book is implemented using Python. Because native
Python is complex for handling images, multiple libraries are used to
help to produce an efficient implementation for applications across the
chapters.

Who This Book Is For


This book is for data scientists and machine learning professionals looking
at deep learning solutions to solve complex business problems, software
developers working on deep learning solutions through TensorFlow, and
graduate students and open source enthusiasts with a constant desire to
learn.

Prerequisites
Python and all the deep learning tools mentioned in the book, from
IPython to TensorFlow to model that you will use, are free of charge
and can be freely downloaded from the Internet. To run the code that
accompanies the book, you need a computer that uses a Windows, Linux,
or Mac OS operating system. The book will introduce you step-by-step to
the process of installing the Python interpreter and all the tools and data
that you need to run the examples.

xxi
Introduction

How this Book Is Organized


P
 arts
• Part I: Introduction—In this part, we prepare the
readers by giving them all the prerequisites needed
to start the journey with machine learning to deep
learning.

• Part II: Data—As the first step of the pipeline, readers


need to know everything about data, from data
collection and understanding information from data to
data processing and preparation.

• Part III: TensorFlow—In this part, we start the


interesting stuff. First, we illustrate the fundamental
and important concepts of deep learning; then we deep
dive into the core of neural networks and the types of
neural networks, describing each type; and show the
important concepts of the equation of deep learning.
Also, we can’t forget to show a real-life example of each
type.
• Part IV: Applying What You’ve Learned—This part
is designed to ensure readers practice by using
TensorFlow and build the pipeline.

C
 hapters
• Chapter 1: A gentle introduction—This chapter provides
the big picture that shows readers what is the field that
the book describes; introduction to this field; and the
mathematical equations and notations that describe
how machine learning works.

xxii
Introduction

• Chapter 2: Setting Up Your Environment—This chapter


introduces the programming tools and packages
you need in this book and some theories to help in
understanding; it also includes a bit of introduction to
the Python programming language.

• Chapter 3: A Nice Tour Through the Deep Learning


Pipeline—In chapter 3 we introduce the pipeline that
the whole book is for; the deep learning approaches
and subfields; the steps of the deep learning pipeline;
and the extras added to TensorFlow that make it unique
compared with other deep learning frameworks.

• Chapter 4: Build Your First Toy TensorFlow App—To


make sure that we will not drop readers in the middle
of the book, we show them a small example using
TensorFlow that will go fast at each step of the deep
learning pipeline; and make sure that the audience
knows each step of the pipeline, how it is important,
and how to use it.

• Chapter 5: Defining Data—This chapter, as its name


implies, is about defining data. Readers should know
what type of data they are dealing with, and that’s very
important so they can choose the right approach for
preparing the data.

• Chapter 6: Data Wrangling and Preprocessing—After


understanding the data, the readers now should choose
the approaches and methodologies for preparing it, so
this chapter helps ensure that the readers will choose
the right approaches in this step.

xxiii
Introduction

• Chapter 7: Data Resampling—After cleaning and


preparing the dataset, now the reader should know
how to sample this dataset in the right way. Choosing
the wrong samples from your data may influence the
result of your models, so in this chapter we illustrate
all techniques and approaches needed to sample your
dataset in the right way.

• Chapter 8: Feature Selection and Feature Engineering—


In this chapter we describe a very important topic
in data step of the pipeline: feature selection and
engineering. Readers should know how to select and
choose the important input feature that contributes
most to the output feature in which they are interested.
Feature engineering is the process of using domain
knowledge of the data to create features that make
machine learning algorithms work. Feature selection
and engineering are fundamental to the application of
machine and deep learning, and readers should know
when and how to use them.

• Chapter 9: Deep Learning Fundamentals—In this


chapter we describe a very important topic in deep
learning fundamentals, the basic functions that deep
learning is built on. Then we try to build layers from
these functions and combine these layers together
to get a more complex model that will help us solve
more complex problems. All that will be described by
TensorFlow examples.

• Chapter 10: Improving Deep Neural Networks—In this


chapter we describe an important topic: after building
the deep learning models, the improvement starts. This
chapter concerns optimization, tuning and choosing

xxiv
Introduction

hyperparameter techniques, and weight normalization


and how that will make the learning process easier
and faster. After that, the reader should know how to
evaluate, optimize, and tune the model parameters to
reach the optimal solution and a satisfying accuracy.

• Chapter 11: Convolutional Neural Network—One of the


important classes of deep learning is the convolutional
neural network. In this chapter we illustrate everything
about CNN from the one-dimensional mask to the
advanced stuff like weight sharing and the difference
between equivariance and invariance. We illustrate a
case study using the famous dataset CIFAR-10.

• Chapter 12: Sequential Models—Another class of


deep learning is sequential models. In this chapter we
describe the problem of sequential data and the rise
of recurrent neural networks, the problem and also
the evolution of the GRU and LSTM, and of course we
include a case study.

• Chapter 13: Selected Topics in Computer Vision—After


finishing CNN in Part III, it’s good to add some extra
knowledge that makes it easier for readers when they work,
like using prebuilt architectures and transfer learning.

• Chapter 14: Selected Topics in Natural Language


Processing—This chapter fills the gaps that readers need
in working with text, giving readers all the advanced
approaches and techniques of natural language processing.

• Chapter 15: Applications—Here we show some case


studies to make sure that readers get the full knowledge
and understanding of how to build a pipeline, with
real-life examples.

xxv
PART I

Introduction
CHAPTER 1

A Gentle Introduction
If you have ever tried to read a deep learning or even machine learning
book, you will find that these books define machine learning (ML) as the
science that teaches machines how to carry out tasks by themselves. That’s
a simple idea if you think of it this way, but the complexity is in the details
of this mysterious science; it’s within the black art of how these machines
can act like humans.
Because you are reading this book now, you are probably one of the
following:

1. A beginner to deep learning who wants to learn the


art of deep learning in easy and straight steps

2. A developer who wants to choose a part of


deep learning to work on and wants to gain the
knowledge to compare between approaches to deep
learning and choose the best option for him or her

3. An advanced engineer who wants to enhance their


skills by learning the best practices of deep learning
and how to build effective pipelines in a deep
learning approach

© Hisham El-Amir and Mahmoud Hamdy 2020 3


H. El-Amir and M. Hamdy, Deep Learning Pipeline,
https://doi.org/10.1007/978-1-4842-5349-6_1
Chapter 1 A Gentle Introduction

Upon starting the book, we have to make sure that you know where
machine learning and deep learning come from and that's by describing
the three theories: information, probability, and decision theory. After
that, we will illustrate what is machine learning and what is deep learning,
and also the evolution from machine learning to deep learning.

Information Theory, Probability Theory,


and Decision Theory
The first question that should spark in your mind is where does deep
learning come from?
If we wanted to write a good answer for this question, we could write
another book titled The Rise of Deep Learning. Instead, we will show you
the combination that made deep learning the state-of-art approach that
many want to learn and understand how it works.
Deep learning—or we can generalize to machine learning—is built
from three theories:

1. Information theory

2. Probability theory
3. Decision theory

Each of these theories contributed to the rise of the deep learning


approach and made it the rich science it is today.

Information Theory
In this section, we start by answering a very good question: what are the
components of the deep learning approach?
The first thing you do in any project is to get and prepare your dataset.
And here, we start these theories by introducing some additional concepts
from the field of information theory, which will also prove useful in our

4
Chapter 1 A Gentle Introduction

development of machine and deep learning approaches. We shall focus only


on the key concepts, which barely scratch the surface of these theories, and
we’ll refer the reader elsewhere for more detailed discussions.
We begin by considering input observations and asking a question:
how much information does the model receive when it’s trying to learn the
pattern of the data?
The answer depends on many things. For example you should know
that information the model gains from a dataset is related to many
variables, so don’t be surprised if the model learned a lot more than you
thought, or less. That’s why this amount of information can be viewed as
the “degree of surprise” on learning the value of your dataset.
Because you want to make sure that a desired model should make
accurate decisions based on what it learned from a dataset, you have to
ensure that the data that entered your model has the proper information
that the model needs. Also, the information the model gains is a variant
from another dataset, and the type of dataset may also make it hard for some
models to learn the inside patterns, for example, images and text datasets. If
you did not have a proper model for these data, you will never extract these
information and you will never find the pattern or even learn it.
It’s good to make it easier for your model to learn from any dataset by
munging and cleaning the data. This will make it clear for your model to
see information and also distinguish it from any noise that exists in the
data; and that’s what Part II of this book is about.
Part II of this book is about dealing with data, starting by defining the
data and the hidden information and type of data, then how to visualize
and extract the information. After seeing the truth by visualization, then
you now know the road to take and you only need to make this road,
and that can done by cleaning the data. At the end of this part we show
you some advanced techniques to make it easier for the model to learn
by extracting and engineering the features of the data to ensure that the
model can see and learn the pattern.

5
Chapter 1 A Gentle Introduction

Probability Theory
As deep learning is concerned with learning from data, it has to learn the
pattern behind these data. And as you learn about this field of science,
you will find yourself facing the key concept of uncertainty. While you are
building a deep learning algorithm that should learn from and about a
given dataset, you will find the most famous fact in the deep learning and
machine learning world, which is the following:

There’s a relationship between the certainty of any


learned model on a given dataset and both noise on
measurements and the finite size of the dataset.

Let us re-illustrate it to make it clearer. Given a dataset that you are


working on in some project, you tried to build a deep learning algorithm
that should predict something based on the training dataset that you
have. After the model had trained for a certain time, you tried to test its
understanding of the dataset that it trained on, and you are surprised that
it learned nothing at all.
So you asked yourself why after all the training time did the model fail
to learn? The answer may be one of the following:

• The model is too small for the data, and that means that
it cannot capture all the knowledge or the patterns from
the dataset.

• The model could not capture the pattern of the dataset


due to the fact that the pattern of the data is hidden
through a huge variation of noise, so the model failed
to understand all that.

• The model could not capture the pattern due to the


small sample of your dataset, and that means the
model cannot learn and generalize using a small
number of observations.

6
Chapter 1 A Gentle Introduction

So, after understanding the problems you have to face that make your
model unable to perform accurately, you have another question: how can I
overcome these obstacles and make my model achieve the desired accuracy?
The answer is behind the art of statistics, as before the invention of
neural networks, statisticians used to make prediction based on a dataset.
Statisticians used what are called distributions to simulate the trend of
the dataset and extract properties like the skew of the data and parameters
such as the measurement of center (mean, median, and mode) and
measurement of spread (variance and standard deviation). All these are
on one-dimensional data, and if the data is in multidimensional space
they use the covariance to see how each pair of variables goes together.
They detect the correlation between each pair to detect the relationship
and the association between the variable pairs. Also, they use what's called
hypothesis testing to infer the result of a hypothesis performed on sample
data from a dataset.
As we use deep learning to predict the future outcome based on a
given observation, we use a huge combination of linear algebra and
statistics as a black box to build and optimize the model.
We can’t say that deep learning consists 100% of statistics. A main
point to address is that deep learning is not just statistics—the same-old
stuff, just with bigger computers and a fancier name. This notion comes
from statistical concepts and terms that are prevalent in machine/deep
learning, such as regression, weights, biases, models, etc. Additionally,
many models approximate what can generally be considered statistical
functions: the softmax output of a classification model consists of logits,
making the process of training an image classifier a logistic regression. Also,
the least square algorithm is a statistical approach to optimize the fitted
line on linear regression.
Though the preceding paragraph is technically correct, reducing deep
learning as a whole to nothing more than a subsidiary of statistics is quite
wrong, and to think that deep learning just consists of statistics is a huge

7
Discovering Diverse Content Through
Random Scribd Documents
— Kiitos, herra Shaw, sanoi Polly ja nyökkäsi Tomille, joka sähkötti
takaisin 'mainiota' ja kävi päivällisen kimppuun kuin nuori susi.

— Sinä veijari! Vai alat sinä mielistellä Tomia! kuiskasi Fan


ystävälleen huvittuneen näköisenä.

— Mitä! Polly oli niin hämmästynyt ja harmissaan, että Fan häpesi


itseään ja vaihtoi keskustelunaihetta huomauttaen äidilleen, että
tarvitsi uudet käsineet.

Polly oli sen jälkeen vähäpuheinen, ja kun päivällinen oli syöty,


hän lähti huoneesta miettiäkseen rauhassa äskeistä keskustelua.
Ennen kuin hän oli ennättänyt portaiden puoliväliinkään, hän näki
Tomin tulevan perässään ja istuutui heti piilottaakseen jalkansa. Tom
nauroi ja sanoi istahtaessaan kaidepuulle:

— Ole huoleti, en minä nyt kaappaise. Halusin vain sanoa, että jos
lähdet huomennakin ulos, niin mennään laskemaan taas kunnolla
mäkeä.

— Ei, sanoi Polly, minä en voi tulla.

— Miksi et? Oletko suuttunut! Enhän minä kertonut, sanoi Tom


hämmästyen Pollyn muuttunutta käytöstä.

— Et kertonutkaan, sinä pidit kiltisti sanasi ja puolustit minua.


Enkä minä ole suuttunut. En vain aio tulla enää laskemaan mäkeä.
Äitisi ei pidä siitä.

— Et sinä siitä syystä. Minä kyllä tiedän. Sinähän nyökäytit


pöydässä päätäsi merkiksi että tulet. Mikset nyt sitten enää?

— En sano, minä en vain tule, kuului Pollyn päättäväinen vastaus.


— Vai niin, luulin että sinä olisit ollut vähän järkevämpi kuin muut
tytöt, mutta mitä vielä. Et ole pennin arvoinen.

— Olipa se kohteliasta, sanoi Polly ja alkoi jo suuttua.

— Pyh, minä vihaan pelkureita.

— En minä ole pelkuri.

— Oletpas. Sinä pelkäät ihmisten puheita, vai mitä?

Polly tunsi Tomin olevan oikeassa eikä vastannut, vaikka olisi


mielellään selittänyt, jos vain olisi voinut.

— Kyllähän sen saattoi arvata, että luopuisit pelistä. Ja Tom meni


tiehensä niin halveksivan näköisenä, että Pollyn sydän vihlaisi.

— Jopa kävi ikävästi! Juuri kun Tom rupesi olemaan mukava ja


minulla hauskaa, piti Fanin pilata kaikki höpötyksellään. Rouva Shaw
ei pidä mäenlaskusta eikä kai isoäitikään. Tulee vain ikävyyksiä jos
menen, ja Fanny kiusaa minua, niin että on parasta kieltäytyä ja
antaa Tomin luulla minua pelkuriksi. Taivas varjelkoon! En ole ikinä
nähnyt näin hassuja ihmisiä.

Polly sulki ovensa tiukasti, ja ajatellessaan miten Fanin tyhmä


huomautus oli pilannut koko hauskuuden hän oli vähällä purskahtaa
kiukun kyyneliin. Pollylle oli opetettu, että rakkaus oli vakava ja pyhä
asia, ja hänen mielestään oli paljon sopimattomampaa mielistellä
yhtä poikaa kuin laskea mäkeä kymmenen kanssa. Edellisenä
päivänä hän oli kuunnellut ällistyneenä, kun Maud sanoi äidilleen:

— Täytyykö minulla olla sulhanen? Kaikilla tytöillä on sulhanen ja


he sanovat, että minun pitäisi ottaa Fjeddy Lovell, mutta minä en
pidä hänestä yhtä paljon kuin Hajjy Fiskestä.

— Kultaseni, minä kyllä ottaisin pikku sydänystävän, sehän on vain


somaa, vastasi rouva Shaw. Ja pian Maud ilmoittikin olevansa
kihloissa 'Fjeddyn' kanssa, koska 'Hajjy' läimäytti häntä, kun hän
ehdotti naimisiin menoa.

Polly nauroi ensin muiden mukana, mutta ajatellessaan


perästäpäin mitä hänen äitinsä olisi mahtanut sanoa, jos pikku Kitty
olisi esittänyt saman kysymyksen, asia ei tuntunutkaan hänestä enää
huvittavalta vaan naurettavalta ja luonnottomalta. Samanlaiselta
tuntui nyt Fanin vihjailu Tomista. Ja kun hänen ensimmäinen
kiukkunsa oli ohi, hän päätti luopua mäenlaskusta ja muustakin
mieluummin kuin ryhtyä hassuttelemaan Tomin kanssa, joka
laiminlyödyn kasvatuksensa takia tiesi yhtä vähän tämän uuden
koululaishuvittelun viehätyksestä kuin Polly.

Polly koetti nyt lohduttautua hyppimällä nuoraa takapihalla ja


leikkimällä piilosta Maudin kanssa kuivaushuoneessa ja opettamalla
tälle uusia leikkejä, jotka tuntuivat huvittavan pikku neitiä. Fan tuli
joskus perehdyttämään heitä uusiin tanssiaskeliin ja innostui
useammin kuin kerran seuraleikkeihin, joissa hän oli melko nokkela.
Mutta Tom kohotti Pollylle halveksivasti hartioitaan ja osoitti, ettei
hän pitänyt tätä 'pennin arvoisena'.

Pollylla oli myös vaatehuolia. Sanomattakin hän tiesi pukujensa


olevan hyvin yksinkertaisia ja toivoi joskus, että hänen sininen ja
hiirenharmaa leninkinsä olisivat olleet vähän koristellumpia, että
vyönauhassa olisi ollut isommat ruusukkeet ja pikku kauluksissa
enemmän pitsejä. Hän haaveili kaulakorusta ja ajatteli vakavasti
ensimmäistä kertaa elämässään ruveta pitämään kauniita kiharoitaan
nutturalla ja panna 'täytettä' tukkaansa. Hän salasi kuitenkin
tyytymättömyytensä syyt kysyessään äidiltään, saisiko korjauttaa
parhaan pukunsa samanlaiseksi kuin Fannyn puku. Hän sai
kirjeeseensä tällaisen vastauksen:

"Ei, rakas lapsi; pukusi on mukava ja hyvä sellaisenaan ja sen


entinen kuosi paras. En tahtoisi, että minun Pollystani pidetään
hänen pukunsa, vaan hänen itsensä takia, niin että käytä sinä vain
niitä yksinkertaisia vaatteita, jotka äitisi niin suurella ilolla ompeli
sinulle, ja unohda haaveet pönkkähameesta. Pieninkin meistä voi
tehdä hyvää tässä isossa maailmassa, ja ehkä pikku tyttöni esimerkki
voi osoittaa toisille, että tyytyväinen mieli ja iloiset kasvot
kaunistavat enemmän kuin pariisilaismuoti. Toivoit kaulakorua,
kultaseni, joten lähetän sinulle sen, jonka sain äidiltäni vuosia sitten.
Siinä on toisella puolen isän, toisella puolen minun kuvani, ja kun
olet jostakin huolissasi, katso silloin taikakaluasi; luulenpa että päivä
taas paistaa silloin."

Ja tietysti paistoikin, sillä pieneen siroon koteloon, jota Polly piti


pukunsa sisäpuolella ja suuteli hellästi illoin ja aamuin, oli kätketty
taioista paras. Ajatus siitä, että hän vähäpätöisyydestään huolimatta
voi tehdä jotain hyvää, sai hänet varomaan sanojaan ja tekojaan ja
olemaan tyytyväinen ja iloinen, niin että hän unohti pukunsa ja sai
toisetkin unohtamaan. Hän ei tiennyt, että hänen sileä pukunsa oli
kaunis juuri vanhanaikaisessa yksinkertaisuudessaan ja että
itsetiedoton viehkeys somisti sen pientä kantajaa. Yhteen
kiusaukseen Polly oli jo langennut ennen äidin kirjeen saapumista ja
hän katui sitä katkerasti.

— Polly, saanhan minä sanoa sinua Marieksi, sanoi Fan kerran


heidän ollessaan ostoksilla.
— Voit sanoa Maryksi jos haluat, mutta minä en tahdo mitään ie-
päätettä nimeeni. Minua sanotaan Pollyksi kotona ja siitä nimestä
minä pidän, mutta Marie on minusta ranskalaista hienostelua.

— Minä kirjoitan aina omaan nimeeni ie-päätteen kuten toisetkin


tytöt.

— Minusta kaikki nuo Nettiet, Nelliet, Hattiet ja Salliet panevat


pään pyörälle. Miltä nyt Polliekin näyttäisi kirjoitettuna!

— Olkoon sitten! Minun pitikin puhua aivan toisesta asiasta. Kuule,


sinun on ehdottomasti hankittava itsellesi pronssinväriset kengät,
sanoi Fan vetoavasti.

— Miksi, minähän tulen toimeen ilmankin?

— Siksi, että ne ovat muodissa, eikä voi olla kunnollisesti


pukeutunut ilman pronssikenkiä. Minä menen ostamaan sellaiset
itselleni, ja sinun täytyy myös tulla.

— Eivätkö ne ole kauhean kalliit?

— Ehkä kahdeksan tai yhdeksän dollaria. Minä otan omat kenkäni


laskuun, eikä haittaa vaikkei sinulla olekaan rahaa. Minä kyllä
lainaan.

— Minulla on kymmenen dollaria, jotka saan käyttää mieleni


mukaan, mutta aioin hankkia niillä tuomisia lapsille. Ja Polly otti
epävarmana esille kukkaronsa.

— Sinähän voit valmistaa itse lahjat. Isoäiti kyllä keksii kaikenlaista


kaunista. Ne ajavat saman asian, ja lahjarahalla saat hankituksi
itsellesi kengät.
— No, minä lähden katsomaan, sanoi Polly ja seurasi Fannyä
kauppaan, jossa hienoja kenkiä katsellessaan tunsi itsensä
suorastaan rikkaaksi ja tärkeäksi.

— Eivätkö ne ole ihanat? Jalkasi ovat taivaalliset noissa kengissä,


Polly. Osta ne minun kutsuihini. Tanssit niissä kuin keijukainen,
kuiskasi Fan.

Polly katseli siroja kiiltäviä kenkiä, joissa oli napitetut varret,


hilpeät korot ja herkulliset kärjet, totesi jalkojensa näyttävän niissä
kauniilta ja sanoi vähän ajan päästä ostavansa ne. Hän iloitsi
kengistään, kunnes pääsi kotiin ja yksin jäätyään kurkisti
kukkaroonsa, jossa oli enää yksi dollari ja luettelo äidille ja lapsille
aiotuista lahjoista. Miten orvolta dollari näyttikään ja miten pitkäksi
luettelo venyi, kun ei ollut enää rahaa ostoksiin.

— En voi tehdä luistimia Nedille enkä kynäkoteloa Willille, ja niitä


he hartaasti toivovat. Nyt on myös mahdotonta ostaa isälle kirjaa ja
äidille kaulusta, kun itsekkäästi tuhlasin kaikki rahat. Miten
saatoinkaan unohtaa heidät? Ja Polly katseli pahoilla mielin uusia
kenkiään niiden seistessä siinä kuin valmiina tanssiin. — Ne ovat
ihanat, mutta en luule niiden tuntuvan hyvältä jalassa, koska
muistan koko aikana unohtuneet lahjat, huokasi Polly ja sysäsi
houkuttelevat kengät pois näkyvistään.

— Minäpä menen kysymään isoäidiltä, minkälaisia lahjoja voisin


valmistaa, sillä jos minun kerran on tehtävä ne itse, on aloitettava
heti paikalla, muuten en saa valmista. Ja hän alkoi heti touhuta
iloiten siitä, että saattoi unohtaa tunnonvaivat kovassa työssä.

Isoäiti kykeni auttamaan häntä pulasta ja ehdotti jokaiselle


jotakin, hankki tarvikkeet ja osoitti hyvää makua ja näppäryyttä.
Polly tunsi suurta helpotusta, mutta kun hän rupesi neulomaan
äidilleen kauniita ruusunpunaisella silkkinauhalla solmittavia
vuodesukkia, hän uhrasi monta vakavaa ajatusta viettelysten
houkutuksille. Jos joku olisi juuri silloin kysynyt, miksi hän huokaili
niin raskaasti kuin jokin olisi painanut hänen omaatuntoaan, hän olisi
vastannut: — Pronssinväristen kenkien takia.

PIKKU SEIKKOJA

— Sataa niin hijveästi, etten voi mennä ulos, ja kaikki ovat äkäisiä
minulle eivätkä tahdo leikkiä minun kanssani, sanoi Maud, kun Polly
tapasi hänet portailta murjottamassa ja pysähtyi kysymään, miksi
hän oli niin huonolla tuulella.

— Minä leikin sinun kanssasi, kunhan et vain huuda ja herätä


äitiäsi. Mitä leikitään?

— En minä tiedä. Minua kyllästyttää, kun kaikki minun leikkikaluni


ovat jikki ja kaikki nuket paitsi Klaaja ovat saijaina, maurusi Maud ja
lyödä mäjäytti pariisilaisnukkeaan, jota riiputti säälimättömästi
jalasta.

— Tule katsomaan, kun rupean ompelemaan pikkusiskoni nukelle


vaatteita, ehdotti Polly toivoen sillä huvittavansa kiukuttelevaa tyttöä
ja saavansa samalla oman työnsä valmiiksi.

— Enkä tule, koska siitä tulee vajmaan kauniimpi kuin minun


Klaajastani. Klaajalta ei saa vaatteita päältä ja Tom pilasi ne kun hän
heitteli sitä puutajhassa.

— Entä jos ratkoisit vaatteet sen päältä; minä näytän sitten miten
uusia tehdään. Sen jälkeen voit pukea ja riisua Klaaran niin usein
kuin haluat.

— Minä alan heti. Leikkaaminen on kauhean hauskaa, sanoi Maud


kasvot kirkastuen.

Majoituttuaan tyhjään ruokailuhuoneeseen tytöt ryhtyivät heti


työhön, ja kun Fan keksi heidät, Maud nauroi täyttä kurkkua Klaara-
raukalleen, jolta oli riisuttu hienoudet ja joka oli tekemässä
kuperkeikkoja vallattoman emäntänsä käsissä.

— Eikö sinua hävetä leikkiä vielä nukeilla, Polly. Minä en ole


koskenut niihin enää aikoihin, sanoi Fan katsellen heitä ylimielisesti.

— Ei hävetä, sillä Maud on siitä mielissään ja sitä paitsi ilahdutan


samalla Kitty-sisartani, ja eiköhän ompeleminen ole hyödyllisempää
kuin itsensä pynttääminen ja joutavat kirjat. Ja Polly jatkoi
ompelemistaan päättäväisen näköisenä, sillä hänellä ja Fannyllä oli
ollut pieni kiista; Polly ei näet ollut antanut ystävänsä kammata
tukkaansa 'muiden ihmisten tapaan' eikä pistää reikiä korvalehtiinsä.

— Älä ole vihainen, Polly, keksitään jotain hauskaa, sillä tänään on


ollut kauhean ikävä päivä, sanoi Fanny sovintoa havitellen, sillä päivä
olisi kaksin kerroin ikävämpi ilman Pollyn seuraa.

— En voi. Minulla on kiire.

— Sinulla on aina kiire. En ole ikinä nähnyt yhtä ahkeraa tyttöä.


Kuinka sinä aina keksitkin tekemistä? kysyi Fanny katsellen
kiinnostuneena pientä punaista villamekkoa, jota Polly parhaillaan
puki nuken ylle.

— Se on helppoa. Mutta kyllä minustakin on joskus hauskaa


laiskotella, maata vain sohvalla lukemassa tai olla mitään
ajattelematta. Laitanko valkoisen musliiniesiliinan vai mustan
silkkisen? lisäsi Polly silmäillen tyytyväisenä työtään.

— Musliinisen, jossa on taskut ja sievät siniset nauhat. Odotahan,


niin näytän. Ja unohtaen nukkien halveksuntansa Fanny istuutui ja
oli kohta yhtä ahkerassa työssä kuin toisetkin.

Ikävä päivä kirkastui ihmeellisesti ja aika kului hauskasti kielen


laulaessa ja neulojen suihkiessa. Isoäiti kurkisti ovesta ja hymyili
ahkeralle tyttöjoukolle sanoen:

— Sillä lailla, tytöt; nuket ovat turvallista seuraa ja ompelutaito


tarpeen, vaikka se on nykyisin täysin unohdettu. Pienempiä pistoja,
Maud, ompele sievempiä napinreikiä, Fanny; ja sinä, Polly, leikkaa
huolellisesti, äläkä tuhlaa kangasta. Yrittäkää parastanne, huolellisin
ompelija saa minulta palasen valkoista silkkiä nuken hatuksi.

Fanny kunnostautui ja sai palkinnon, sillä Polly auttoi Maudia ja


jätti oman työnsä. Hänelle riitti, kun herra Shaw nähtyään hänen
säteilevät kasvonsa teepöydässä sanoi:

— Arvaan että Polly on ollut loihtimassa tänään päivänpaistetta.

— Minä puin vain Maudin nuken.

Eikä Polly tosiaan tiennyt tehneensä mitään erityistä, mutta


tuollaiset pikku asiat odottavat aina tekijäänsä tässä matoisessa
maailmassa, jossa usein sattuu pilvisiä päiviä, mieli masentuu ja
velvollisuus on ristiriidassa huvin kanssa. Tämäntapaiset vähäiset
seikat ovat omiaan nuorille; ystävällinen ajatus, epäitsekäs pieni teko
tai piristävä sana ovat sellaisia lahjoja, ettei kukaan voi vastustaa
niitä eikä olla rakastamatta niiden antajaa. Äidit tekevät paljon
tällaisia tekoja huomaamattomasti ja kiitosta saamatta, mutta ne
muistetaan vielä kauan jälkeen päinkin eivätkä ne jää koskaan
tehoamatta, sillä niiden yksinkertainen taikavoima yhdistää sydämet
toisiinsa ja pitää kodin onnellisena.

Polly oli oppinut tämän salaisuuden. Hän teki mielellään pikku


palveluksia, joita toiset eivät kiireissään huomanneet; ja toimiessaan
kiitosta odottamatta hän levitti päivänpaistetta ympärilleen. Hänen
oma kotinsa oli niin tulvillaan rakkautta, että hän huomasi oitis sitä
puuttuvan Fannyn kodista ja alkoi miettiä syytä, miksi nämä ihmiset
eivät olleet ystävällisiä ja kärsivällisiä toisiaan kohtaan. Hän ei
koettanutkaan löytää vastausta, mutta yritti parhaansa mukaan
rakastaa ja palvella heitä, ja hänen herttaisuutensa, avuliaisuutensa
ja vilpittömyytensä valloittivat jokaisen.

Herra Shaw oli erittäin ystävällinen Pollylle, sillä hän piti tämän
vaatimattomasta ja kohteliaasta käytöksestä. Polly oli niin kiitollinen
hänen suopeudestaan, että unohti pian pelkonsa ja osoitti
mieltymystään pienillä palveluksilla, jotka suuresti ilahduttivat herra
Shaw'ta. Kun hän lähti aamuisin virastoonsa, Polly saattoi häntä
puiston halki vilkkaasti jutellen ja hyvästeli hänet hymysuin ja
päätään nyökyttäen, kun he erosivat suuren portin luona. Aluksi
herra Shaw ei paljon huomannutkaan näitä saattomatkoja, mutta
oppi pian kaipaamaan Pollya, ellei tämä tullut, sillä koko hänen
päivänsä kirkastui aina kun pieni harmaapukuinen olento, jolla oli
älykkäät kasvot ja iloinen ääni, tuli saattamaan häntä talvisen
puiston läpi käsi luottavaisesti hänen kädessään. Tullessaan
myöhään kotiin hän oli iloinen nähdessään ruskean kiharapään
odottavan ikkunassa, huomatessaan tohvelinsa ja sanomalehden
paikoillaan ja ahkeran jalkaparin valmiina palveluksiin.

— Olisipa Fannykin enemmän hänen kaltaisensa, hän mietti usein


katsellessaan tyttöjä, jotka luulivat hänen syventyneen politiikkaan
tai rahamarkkinatilanteeseen. Herra Shaw-paralla oli ollut niin kiire
rikastua, ettei hän ollut ennättänyt herättää lapsissaan rakkautta.
Nyt hänellä oli enemmän aikaa, ja pojan ja tyttärien tultua
suuremmiksi hän oli alkanut kaivata jotain. Polly opetti tietämättään
mitä häneltä puuttui ja sai lasten rakkauden ja kiintymyksen
tuntumaan niin kallisarvoiselta, ettei hän olisi halunnut enää olla
vailla sitä, vaikkei tiennytkään, miten olisi saavuttanut lastensa
luottamuksen. Nämä taasen olivat aina nähneet hänet kiireisenä,
välinpitämättömänä ja hajamielisenä.

Kun Polly eräänä iltana ennen nukkumaan menoa suuteli tapansa


mukaan isoäitiä, Fanny nauroi hänelle ja sanoi:

— Voi, mikä lapsi sinä olet! Me olemme liian vanhoja tuollaiseen.

— Minun mielestäni eivät ihmiset ole koskaan liian vanhoja


suutelemaan isäänsä ja äitiään, vastasi Polly nopeasti.

— Oikein, Polly, sanoi herra Shaw ja ojensi tytölle kätensä niin


ystävällisesti, että Fanny tuijotti häneen hämmästyneenä ja sanoi
sitten arasti:

— Luulin ettet välitä sellaisesta, isä.

— Totta kai välitän, kultaseni, ja herra Shaw ojensi toisen kätensä


Fannylle, joka suuteli häntä tyttärellisesti sydän täynnä hellyyttä,
jonka lapsuuden aikainen tapa oli elvyttänyt.

Rouva Shaw oli hermostunut, kärsimätön invalidi, joka vähän väliä


tarvitsi jotain. Polly saattoi siis tehdä paljon pikku palveluksia rouva
Shaw'lle, ja hän teki ne niin mielellään, että rouvaparka oli
onnellinen saadessaan pitää tämän hiljaisen, auttavaisen lapsen
luonaan lukemassa ääneen, toimittelemassa asioita ja ojentamassa
senkin seitsemää hartialiinaa, joita puettiin ylle ja riisuttiin
ehtimiseen.

Isoäitikin oli iloinen saadessaan avukseen kaksi aulista kättä ja


jalkaa. Polly vietti monta onnellista hetkeä hänen vanhanaikaisissa
huoneissaan, oppi kauniita käsitöitä ja kuunteli hänen tarinointiaan
aavistamatta lainkaan, miten paljon päivänpaistetta toi yksinäiselle
vanhukselle.

Tom oli Pollyn harminkappaleena pitkän aikaa, sillä hän törmäsi


odottamatta tielle milloin mistäkin. Hän kiusasi, mutta silti huvitti
Pollya, oli toisena päivänä kiltti, toisena häijy. Väliin Polly luuli, ettei
Tom enää koskaan olisi ilkeä, mutta seuraavassa hetkessä tämä oli
taas täynnä koiruuksia ja viittasi kintaalla katumukselle ja
parannukselle. Polly herkesi jo pitämään häntä toivottomana, mutta
koska hän oli tottunut auttamaan jokaista, joka oli vaikeuksissa, hän
oli hyvä Tomillekin.

— Mikä hätänä? Onko läksy liian vaikea? hän kysyi eräänä iltana,
kun kuuli ähkymistä pöydän toiselta puolen, missä Tom istua jurotti
resuinen kirjapinkka edessään, kädet tukkaan hautautuneina aivan
kuin pää olisi haljeta hirvittävistä ponnistuksista.

— Vaikea! Tietäisitpä vain! Mitä pihkoja minä välitän vanhoista


karthagolaisista? Regulus ei ollut hullumpi, mutta olen saanut
kylläkseni hänestä! Ja Tom antoi latinan lukukirjalle läimäyksen, joka
ilmaisi hänen tunteitaan paremmin kuin sanat.

— Minä pidän latinasta ja opin sitä aika paljon lukiessani Jimmyn


kanssa. Voisin ehkä auttaa sinua hiukan, sanoi Polly Tomin
pyyhkiessä hikeä kasvoiltaan ja virkistäytyessä pähkinöillä.

— Sinäkö? Pyh! Tyttöjen latinalla ei pitkälle potkita, oli nyreä


vastaus.

Mutta Polly oli nyt jo tottunut Tomiin eikä säikähtänyt vähästä,


vaan rupesi tarkastelemaan töhryistä sivua, johon Tom oli
takertunut. Hän luki sen niin sujuvasti, että nuori herra herkesi
hämmästyneenä maiskuttamasta ja katseli häntä kunnioittavasti, ja
Pollyn lopetettua lukemisensa Tom sanoi epäluuloisesti:

— Ovela temppu, opettelit lukemaan sen etukäteen. Mutta et sinä


minua niin vähällä hämää, neitiseni. Käännäpäs kymmenkunta lehteä
ja koeta uudelleen.

Polly totteli ja luki entistä paremmin sekä sanoi nauraen:

— Minä olen lukenut koko kirjan läpi, et sinä saa minua kiinni.

— Miten sinä tulit lukeneeksi niin paljon? kysyi Tom täysin


ymmällään.

— Luin Jimmyn kanssa, sillä isä antoi meidän lukea yhdessä kaikki
läksyt. Se oli hauskaa ja me opimme nopeasti!

— Kerro Jimmystä. Hänhän on veljesi?


— Oli, mutta hän on kuollut. Kerron hänestä joskus toiste. Sinun
pitäisi lukea nyt, minä voin ehkä auttaa sinua, sanoi Polly ja hänen
huulensa värähtivät niukan.

— En ihmettelisi vaikka voisitkin. Ja Tom levitti heidän välilleen


kirjan vakavan ja tärkeän näköisenä, sillä hän tunsi Pollyn olevan
etevämpi ja se velvoitti häntä yrittämään parastaan sukupuolensa
kunnian vuoksi. Hän kävi tarmokkaasti läksyyn käsiksi ja voitti pian
vaikeudet Pollyn auttaessa silloin tällöin. Ja näin he jatkoivat hyvää
kyytiä, kunnes eteen tuli muutama ulkoaopittava kieliopin sääntö.
Polly oli unohtanut ne, joten he koettivat yhdessä painaa niitä
mieleensä Tomin huojutellessa ruumistaan kädet taskussa ja kiireesti
mutisten, Pollyn kierrellessä otsakiharaa sormensa ympäri ja
papattaessa seinään tuijotellen.

— Selvä! hihkaisi Tom.

— Selvä! toisti Polly ja sitten he kuulustelivat toisiaan, kunnes


molemmat osasivat säännön virheettömästi.

— Sehän meni oikein mukavasti, sanoi Tom heittäen tyytyväisenä


kirjan luotaan.

— Nyt käydään käsiksi algebraan, neitiseni. Siitä minä pidän yhtä


paljon kuin vihaan latinaa.

Polly hyväksyi haasteen ja tunnusti pian Tomin voittajaksi. Tom


pääsi taas tasapainoon, mutta ei ylpeillyt silti taidostaan, vaan
neuvoi Pollya niin isällisen kärsivällisesti, että tämän silmät rupesivat
tuikkimaan pidätetystä naurusta. Ja kun Tom selitellessään tärkeänä
matki tietämättään opettajaansa, Dominie Deanea, Pollyn oli vaikea
olla purskahtamatta nauruun.
— Voin opettaa sinua toistekin, milloin vain haluat, ilmoitti Tom
jalomielisesti ja heitti algebran latinan lukukirjan seuraksi.

— Sitten tulen joka ilta. Minusta tämä on hauskaa, tänne tultuani


en ole opiskellutkaan tipan tippaa. Yritä sinä saada minut pitämään
algebrasta, niin minä opetan sinua pitämään latinasta. Tahdotkos?

— Kyllä minä siitä pitäisinkin, jos vain joku neuvoisi minua.


Deanen ukko pitää sellaista höykkyä, ettei häneltä ennätä mitään
kysyä silloin kun läksyä valmistellaan.

— Kysy isältäsi, hän kyllä tietää.

— Enpä luule, enkä sitä paitsi välitä vaivata häntä, vaikka hän
tietäisikin.

— Miksi et?

— Hän vain nipistäisi minua korvasta ja sanoisi minua tyhmäksi tai


kieltäisi häiritsemästä.

— En usko. Hän on minulle hyvin kiltti ja minä kyselen häneltä


kaikenlaista.

— Sinusta hän pitääkin enemmän kuin minusta.

— Et saa sanoa niin! Tietysti hän rakastaa sinua enemmän kuin


minua, huudahti Polly moittivasti.

— Miksei hän sitten näytä sitä? mutisi Tom katseessaan haikeutta


ja uhmaa, kun hän vilkaisi kirjastohuoneeseen, jonka ovi oli raollaan.

— Miten hän voisi, kun olet aina piikit pystyssä? kysyi Polly hetken
mietittyään ja keksimättä parempaa vastausta.
— Miksei hän sitten anna minulle polkupyörää? Hän lupasi sen, jos
teen kunnollisesti koulutehtävät kuukauden ajan; ja olen nyt rehkinyt
kuin viimeistä päivää vähintään kuusi viikkoa eikä hän ole
tietääkseenkään. Tytöt saavat kyllä kerjätyksi hepenensä. Minä en
viitsi kerjätä, mutta älä luulekaan, että rupean lukemaan itseäni
kuoliaaksi turhan takia.

— Ikävä juttu, mutta kyllä sinun silti pitäisi lukea, vaikka et


saakaan siitä palkintoa, aloitti Polly yrittäen olla opettavainen, vaikka
sydämessään säälikin Tom-parkaa.

— Älä saarnaile. Jos isäukko olisi edes vähän kiinnostunut minusta


ja koulunkäynnistäni, en odottaisikaan mitään palkintoa, mutta hän
on täysin välinpitämätön. Hän ei edes kysynyt, miten 'Regillus-järven
taistelu' meni viime tunnilla, vaikka opettelin sen hänen takiaan,
koska hän sanoi pitävänsä siitä.

— Voi, Tom! Esititkö sinä sen? Sehän oli hienoa! Jim ja minä
lausuimme usein Horatiusta yhdessä, ja se oli kauhean hauskaa.
Näytä nyt miten sinä esitit runon. Minä pidän siitä kovasti.

— Se on hirmuisen pitkä, vastasi Tom, mutta hänen kasvonsa


kirkastuivat, sillä Pollyn osanotto tyynnytti hänen loukattuja
tunteitaan ja hän halusi mielellään näyttää taitoaan. Hän alkoi melko
laimeasti, mutta pian säkeiden sotainen kalskahdus sytytti hänet, ja
ennen kuin tiesikään, hän oli hypähtänyt pystyyn ja jyrisytti niitä
mahtavalla äänellä Pollyn kuunnellessa häntä mukana eläen. Tom
lausui hyvin, sillä hän oli unohtanut itsensä ja esitti balladin niin
vaikuttavasti, että Polly oli ihastuksesta tulipunainen ja myös toinen
kuuntelija, joka oli seurannut tapahtumia lehtensä takaa, tunsi
väreitä selkäpiissään.
Kun Tom vihdoin lopetti hengästyneenä esityksensä ja Polly taputti
käsiään innostuneena, kaikui heidän takaansa vielä kovemmat
suosionosoitukset. Molemmat pyörähtivät ympäri ja näkivät ovella
herra Shaw'n, joka taputti käsiään kaikin voimin.

Tom näytti nololta eikä sanonut sanaakaan, mutta Polly juoksi


herra
Shaw'n luokse, tanssi hänen edessään ja sanoi innoissaan:

— Eikö ollutkin loistavaa? Eikö Tom lausunut hyvin? Kai hän nyt
saa sen polkupyörän?

— Mainiota, Tom; sinustahan tulee vielä lausuja. Opettele


toinenkin samanlainen runo, niin tulen kuuntelemaan sinua. No, mitä
arvelet siitä polkupyörästä.

Polly oli ollut oikeassa, ja Tom myönsi mielessään, että 'isäukko' oli
kiltti ja piti hänestä eikä ollut unohtanut lupaustaan. Isän
odottamaton kiittely sai Tomin punastumaan mielihyvästä ja
näpelöimään takinnappeja, mutta sitten hän katsoi iloisena tätä
suoraan silmiin ja vastasi yhteen hengenvetoon:

— Opettelen varmasti.

— Hyvä on, katselehan sitten huomenna itsellesi uutta hevosta. Ja


Shaw pöyhötti ystävällisesti punaista hiuspörröä tuntien isällistä iloa
siitä, että pojassa sittenkin oli jotain.

Tom sai seuraavana päivänä polkupyöränsä, antoi sille nimeksi


Musta Auster "Regillus-järven taistelun" mukaan ja koki heti kovia,
kun alkoi ratsastaa uudella sotaoriillaan.
— Tule katsomaan kun minä ajan, kuiskasi Tom Pollyle, kun oli
kolme päivää harjoitellut kadulla opeteltuaan sitä ennen ajamaan
urheiluradalla.

Polly ja Maud lähtivät mielellään ja seurasivat silmä kovana hänen


ponnistuksiaan, kunnes hän keikahti niin pahasti, että pyöräily oli
vähällä katketa häneltä lopuksi ikää.

— Hei vain! Nyt Auster tulee! huusi Tom huristaessaan pitkää


jyrkkää katua puiston laidassa.

Tytöt väistyivät ja Tom suhahti ohi viuhtoen niin mielettömästi


käsiään ja jalkojaan, että koko vehje näytti karanneelta
höyrykoneelta. Se olisikin ollut riemukasta menoa, ellei iso koira olisi
äkkiä syöksynyt esiin eräästä portista ja heittänyt koko komeuden
katuojaan. Polly nauroi ja juoksi katsomaan mylläkkää: Tom makasi
selällään pitkin pituuttaan, polkupyörä päällään ja vieressä iso koira
hurjasti haukkuen. Mutta nähdessään Tomin kasvot Polly säikähti,
sillä väri oli paennut niistä tyystin, hänen silmänsä näyttivät oudoilta
ja otsassa olevasta isosta haavasta alkoi tihkua verta. Koiran isäntä
huomasi myös sen ja nosti pojan maasta. Mutta Tom ei pysynyt
pystyssä, vaan nyykähti istumaan jalkakäytävän reunalle. Polly piteli
nenäliinaa hänen otsallaan ja kysyi hätääntyneenä, oliko hän
kaatunut kuoliaaksi.

— Älkää säikäyttäkö äitiä! Ei minulla ole hätää. Minähän kaaduin


vain nurinniskoin, hän sanoi vähän ajan perästä silmäillen maassa
makaavaa polkupyörää, jonka särkymisestä hän oli enemmän
huolissaan kuin omasta tilastaan.

— Arvasin kyllä, että satutat itsesi tuolla kauhealla kapineella.


Anna sen nyt olla ja tule kotiin, sillä päästäsi vuotaa verta aivan
kamalasti ja kaikki katselevat meitä, kuiskasi Polly koettaen sitoa
pahannäköistä haavaa pienellä nenäliinallaan.

— Lähdetään sitten. Hurja miten kummalliselta pääni tuntuu! Auta


minua vähän. Ja lakkaa sinä ulvomasta, Maud, ja tule kotiin! Sinä
tuot pyörän, Pat, minä maksan kyllä. Tom nousi hitaasti pystyyn ja
Pollyn olkapäähän nojautuen jakeli käskyjään; ja sitten kulkue lähti
liikkeelle. Ensimmäisenä iso koira vähän väliä haukahdellen, sitten
lupsakka irlantilainen kiroten 'hyrrä-peijakasta', joksi hän
halveksivasti nimitti Tomin jumaloimaa polkupyörää, seuraavana
haavoittunut sankari uskollisen Pollyn tukemana ja joukon jatkona
itkevä Maud, joka kantoi Tomin lakkia.

Pahaksi onneksi rouva Shaw oli isoäidin kanssa ajelulla ja Fanny


kylässä, joten Tom saattoi turvautua vain Pollyyn, sillä sisäkkö
pyörtyi heti nähtyään verta ja kamarineiti meni hälinässä täysin
pyörälle päästään. Haava oli paha ja ommeltava heti kiinni, sanoi
lääkäri saavuttuaan.

— Jonkun täytyy pidellä hänen päätään, hän lisäsi pantuaan


rihman omituisen neulan silmään.

— Olen kyllä hiljaa, mutta jos jonkun on pidettävä minusta kiinni,


niin pitäköön Polly. Et kai pelkää? kysyi Tom katsoen rukoilevasti
Pollyyn, sillä ajatus ompelemisesta ei vähääkään miellyttänyt häntä.

Polly oli juuri puikahtamaisillaan tiehensä ja sanomassa: "Voi, en


minä saata!" kun muisti Tomin kerran sanoneen häntä pelkuriksi. Nyt
hänellä oli tilaisuus näyttää, ettei ollut pelkuri, eikä Tom-paralla ollut
ketään toistakaan, joka olisi voinut auttaa häntä. Polly astui siis
sohvan luo, jolla Tom makasi, nyökkäsi hänelle kehottavasti ja pani
pehmeät pikku kätensä vahingoittuneen kohdan molemmin puolin.
— Olet tosi ystävä, Polly, kuiskasi Tom, puri hammasta, puristi
kätensä nyrkkiin ja hiljaa maaten kesti kipunsa kuin mies konsanaan.
Kaikki oli ohi parissa minuutissa, ja saatuaan lasillisen viiniä ja
päästyään vuoteeseen hän tunsi olonsa taas hyväksi, vaikka päässä
tuntuikin kipeältä. Hänen oli käsketty olla hiljaa, niinpä hän sanoi
vain lyhyesti Pollylle: "Kiitoksia paljon", ja katseli kiitollisena tyttöä
tämän hiipiessä huoneesta.

Tomin oli maattava sisällä koko viikko, ja hän oli varsin jännittävän
näköinen iso musta laastarilappu otsassaan. Kaikki hemmottelivat
häntä, sillä tohtori oli sanonut, että jos isku olisi sattunut
tuumankaan lähemmäksi ohimoa, kuolema olisi ollut seurauksena.
Niinpä entinen nyrpeä Tom tuntui kaikista entistä rakkaammalta
heidän ajatellessaan, että olisivat voineet äkkiä menettää hänet. Isä
kyseli hänen vointiaan monta kertaa päivässä, äiti puheli
lakkaamatta "rakkaasta pojasta, joka töin tuskin oli pelastunut
onnettomuudesta", isoäiti syötti hänelle kaiken maailman herkut ja
tytöt palvelivat häntä kuin nöyrät orjattaret.

Tällä uudella kohtelulla oli erinomainen vaikutus, sillä kun


laiminlyöty Tom oli selviytynyt perheen muuttuneen käytöksen
aiheuttamasta hämmingistä, hän aivan loisti mielihyvää ja
hämmästytti omaisiaan olemalla odottamattoman kärsivällinen,
kiitollinen ja rakastettava. Kukaan ei saanut koskaan tietää, kuinka
hyvää huomio teki hänelle, sillä harvoin pojat ilmaisevat tällaisia
asioita muille kuin äidilleen, ja rouva Shaw puolestaan ei ollut
koskaan löytänyt avainta poikansa sydämeen. Vähäinen siemen oli
kuitenkin kylvetty ja juurtui, ja vaikka se itikin hitaasti, lopulta se
kuitenkin versoi. Pollyllä oli kenties siihen osuutensa.
Illat olivat Tomista vaikeimmat, sillä liikunnan puute teki Tomin
tapaisen reippaan pojan niin levottomaksi ja hermostuneeksi kuin
ajatella saattaa. Koska hän ei osannut nukkua, tytöt yrittivät huvittaa
häntä. Fanny soitteli ja luki ääneen, Polly lauloi ja kertoi tarinoita ja
kertoi niin hyvin, että hänelle tuli pian tavaksi aloittaa tarinointinsa
heti hämärän tultua Tomin istuessa lempipaikallaan isoäidin sohvalla.

— Annapas tulla! sanoi nuori sulttaani eräänä iltana, kun hänen


pieni Sheherazadensa istuutui matalalle jakkaralle kohennettuaan
ensin tulta, niin että huone oli valoisa ja kodikas.

— Tänä iltana en ole ollenkaan tarinointituulella. Olen jo kertonut


kaikki mitä osaan, enkä keksi enää uusia, vastasi Polly nojaten
päätään käteen niin murheellisena, että se oli Tomille aivan uutta.
Hän katseli Pollya hetken ja kysyi sitten uteliaasti:

— Mitä sinä ajattelit äsken, kun tuijotit valkeaan ja tulit


synkemmän näköiseksi?

— Minä ajattelin Jimmyä.

— Etkö kertoisi hänestä? Sinähän lupasit joskus kertoa. Mutta älä


sitten ellet halua, sanoi Tom osaaottavasti ääntään hiljentäen.

— Puhun mielelläni hänestä, mutta ei ole paljon kertomista, aloitti


Polly kiitollisena Tomin osanotosta. — Kun olen täällä sinun luonasi,
tulevat mieleeni ne ajat, jolloin istuin hänen sairasvuoteensa
vieressä. Meillä oli aina hurjan hauskaa.

— Hän oli varmaan hyvin kiltti?

— Ei erityisemmin. Mutta hän yritti olla, ja äiti sanoo, että sillä on


jo puolet voitettu. Me aina väsyimme kesken, mutta teimme taas
uusia päätöksiä ja yritimme lujasti pitää ne. Minä en tainnut päästä
kovin pitkälle, mutta Jimmy pääsi ja kaikki rakastivat häntä.

— Riitelittekö te koskaan?

— Kyllä joskus, mutta emme me ikinä kauan vihoitelleet, vaan


sovimme pian. Jimmyllä oli tapana tulla ensiksi ja sanoa: "Kaikki
hyvin, Polly", ja hän sanoi sen niin ystävällisesti ja iloisesti, etten
voinut olla nauramatta ja sopimatta heti hänen kanssaan.

— Oliko hän etevä?

— Taisi olla, sillä hän piti opiskelusta ja halusi päästä eteenpäin


voidakseen auttaa isää. Minä olin aina kauhean ylpeä, kun kuulin
ihmisten sanovan häntä kunnon pojaksi, mutta he eivät tienneet
lähestulkoonkaan, miten viisas hän oli, koska hän ei pöyhistellyt
tiedoillaan. Sisaret taitavat aina olla mahtavia veljistään, mutta en
luule monella tytöllä olevan siihen yhtä paljon syytä kuin minulla.

— Useimmat tytöt eivät välitä veljistään pennin vertaa, niin ettet


sinä näy paljon tietävän niistä asioista.

— Mutta ainakin heidän pitäisi välittää ja he välittäisivätkin, jos


veljet olisivat yhtä hyviä kuin Jimmy oli minulle.

— No, mitä hän sitten teki?

— Rakasti minua sydämestään eikä hävennyt näyttää sitä, vastasi


Polly äänessään paljon puhuva nyyhkäisy.

— Mihin hän kuoli? kysyi Tom vakavasti oltuaan vähän aikaa


ääneti.
— Hän loukkaantui mäessä viime talvena, mutta hän ei koskaan
sanonut, kuka oli siihen syypää, ja hän eli vain viikon sen jälkeen.
Minä autoin hänen hoitamisessaan, ja hän oli niin kärsivällinen, että
aina ihmettelin, sillä hänellä oli hirveät tuskat koko ajan. Hän antoi
minulle kirjansa, koiransa, täplikkäät kanansa ja ison veitsensä ja
sanoi: "Hyvästi Polly" ja suuteli minua viimeiseksi ja sitten, — — oi
Jimmy, Jimmy! Kunpa hän voisi tulla takaisin!

Polly-ressun silmät täyttyivät kyynelistä, huulet vavahtelivat sitä


enemmän mitä pitemmälle hän pääsi, ja tultuaan Jimmyn
jäähyväisiin hän ei voinut enää jatkaa, vaan peitti kasvonsa ja itki
pakahtuakseen.

Tom oli täynnä myötätuntoa, muttei tiennyt miten olisi osoittanut


sitä. Hänen pudistellessaan kamferttipulloa ja koettaessaan keksiä
jotain lohduttavaa Fanny tuli avuksi ja syleili Pollya, taputteli ja
suuteli häntä, kunnes kyynelet herkesivät vuotamasta.

— En mahtanut sille mitään. Olen ajatellut rakasta veljeäni koko


illan, sillä Tom muistuttaa häntä, hän lisäsi huokaisten.

— Minäkö? Kuinka minä voin muistuttaa häntä, kun en ole yhtään


hänen tapaisensa? kysyi Tom hämillään.

— Olet sinä joissakin asioissa.

— Tahtoisin olla, mutta en pysty, sillä hänhän oli kiltti.

— Olet sinäkin jos vain haluat. Eikö sinustakin, Fanny, Tom ole
ollut kiltti ja kärsivällinen ja eikö meistä kaikista ole hauskaa, että
hän on niin taitava? sanoi Polly, jonka sydämeen vieläkin koski veljen
muisteleminen.
— On tosiaan. Hän on viime aikoina ollut kuin toinen poika; mutta
kyllä hän taas parannuttuaan muuttuu entiselleen, vastasi Fanny,
joka ei juuri luottanut sairasvuoteella tehtyyn kääntymykseen.

— Sinähän se kaikki tiedät, murahti Tom ja heittäytyi uudestaan


pitkälleen, hän oli näet kavahtanut istumaan, kun Polly oli yllättäen
sanonut hänen muistuttavan rakasta Jimmy-veljeään. Pollyn niukka,
kyyneliin päättynyt kuvaus oli tehnyt Tomiin syvän vaikutuksen ja
koskettanut hellää kohtaa hänen sydämessään. On hauska olla
pidetty ja ihailtu ja mukavaa ajatella, että meitä kuoleman jälkeen
kaivataan; niinpä Tomkin halusi äkkiä tulla sen pojan kaltaiseksi, joka
ei ollut tehnyt mitään ihmeellistä, mutta jota sisar kuitenkin rakasti
niin, että itki häntä vielä vuoden kuluttua hänen kuolemastaan, ja
joka oli ollut niin ahkera ja taitava, että ihmiset sanoivat häntä
kunnon pojaksi, ja yritti niin lannistumatta tulla hyväksi, että voitti
kiltteydessä Pollynkin, joka Tomin mielestä oli sentään jo kiltteyden
perikuva.

— Toivoisinpa että minulla olisi samanlainen sisar kuin sinä, hän


sanoi äkkiä.

— Ja minä toivoisin että minulla olisi sellainen veli kuin Jim oli,
tiuskaisi Fanny, sillä hän tunsi moitetta Tomin sanoissa ja tiesi
ansaitsevansa sen.

— Minun mielestäni teidän ei pitäisi kadehtia ketään, kun teillä on


toisenne, sanoi Polly niin ikävöivä katse silmissään, että Tom ja
Fanny alkoivat äkkiä ihmetellä, miksi he eivät viihtyneet ja pitäneet
hauskaa keskenään kuten Polly ja Jim.

— Fanny ei välitä kenestäkään muusta kuin itsestään, sanoi Tom.


Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

textbookfull.com

You might also like