admin
2022-11-05 3680049029e6a193eae069596be04ce0fb2b1303
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
#ifndef JEMALLOC_INTERNAL_BIN_H
#define JEMALLOC_INTERNAL_BIN_H
 
#include "jemalloc/internal/bin_stats.h"
#include "jemalloc/internal/bin_types.h"
#include "jemalloc/internal/extent_types.h"
#include "jemalloc/internal/extent_structs.h"
#include "jemalloc/internal/mutex.h"
#include "jemalloc/internal/sc.h"
 
/*
 * A bin contains a set of extents that are currently being used for slab
 * allocations.
 */
 
/*
 * Read-only information associated with each element of arena_t's bins array
 * is stored separately, partly to reduce memory usage (only one copy, rather
 * than one per arena), but mainly to avoid false cacheline sharing.
 *
 * Each slab has the following layout:
 *
 *   /--------------------\
 *   | region 0           |
 *   |--------------------|
 *   | region 1           |
 *   |--------------------|
 *   | ...                |
 *   | ...                |
 *   | ...                |
 *   |--------------------|
 *   | region nregs-1     |
 *   \--------------------/
 */
typedef struct bin_info_s bin_info_t;
struct bin_info_s {
    /* Size of regions in a slab for this bin's size class. */
    size_t            reg_size;
 
    /* Total size of a slab for this bin's size class. */
    size_t            slab_size;
 
    /* Total number of regions in a slab for this bin's size class. */
    uint32_t        nregs;
 
    /* Number of sharded bins in each arena for this size class. */
    uint32_t        n_shards;
 
    /*
     * Metadata used to manipulate bitmaps for slabs associated with this
     * bin.
     */
    bitmap_info_t        bitmap_info;
};
 
extern bin_info_t bin_infos[SC_NBINS];
 
typedef struct bin_s bin_t;
struct bin_s {
    /* All operations on bin_t fields require lock ownership. */
    malloc_mutex_t        lock;
 
    /*
     * Current slab being used to service allocations of this bin's size
     * class.  slabcur is independent of slabs_{nonfull,full}; whenever
     * slabcur is reassigned, the previous slab must be deallocated or
     * inserted into slabs_{nonfull,full}.
     */
    extent_t        *slabcur;
 
    /*
     * Heap of non-full slabs.  This heap is used to assure that new
     * allocations come from the non-full slab that is oldest/lowest in
     * memory.
     */
    extent_heap_t        slabs_nonfull;
 
    /* List used to track full slabs. */
    extent_list_t        slabs_full;
 
    /* Bin statistics. */
    bin_stats_t    stats;
};
 
/* A set of sharded bins of the same size class. */
typedef struct bins_s bins_t;
struct bins_s {
    /* Sharded bins.  Dynamically sized. */
    bin_t *bin_shards;
};
 
void bin_shard_sizes_boot(unsigned bin_shards[SC_NBINS]);
bool bin_update_shard_size(unsigned bin_shards[SC_NBINS], size_t start_size,
    size_t end_size, size_t nshards);
void bin_boot(sc_data_t *sc_data, unsigned bin_shard_sizes[SC_NBINS]);
 
/* Initializes a bin to empty.  Returns true on error. */
bool bin_init(bin_t *bin);
 
/* Forking. */
void bin_prefork(tsdn_t *tsdn, bin_t *bin);
void bin_postfork_parent(tsdn_t *tsdn, bin_t *bin);
void bin_postfork_child(tsdn_t *tsdn, bin_t *bin);
 
/* Stats. */
static inline void
bin_stats_merge(tsdn_t *tsdn, bin_stats_t *dst_bin_stats, bin_t *bin) {
    malloc_mutex_lock(tsdn, &bin->lock);
    malloc_mutex_prof_accum(tsdn, &dst_bin_stats->mutex_data, &bin->lock);
    dst_bin_stats->nmalloc += bin->stats.nmalloc;
    dst_bin_stats->ndalloc += bin->stats.ndalloc;
    dst_bin_stats->nrequests += bin->stats.nrequests;
    dst_bin_stats->curregs += bin->stats.curregs;
    dst_bin_stats->nfills += bin->stats.nfills;
    dst_bin_stats->nflushes += bin->stats.nflushes;
    dst_bin_stats->nslabs += bin->stats.nslabs;
    dst_bin_stats->reslabs += bin->stats.reslabs;
    dst_bin_stats->curslabs += bin->stats.curslabs;
    dst_bin_stats->nonfull_slabs += bin->stats.nonfull_slabs;
    malloc_mutex_unlock(tsdn, &bin->lock);
}
 
#endif /* JEMALLOC_INTERNAL_BIN_H */