These changes are the raw update to linux-4.4.6-rt14. Kernel sources
[kvmfornfv.git] / kernel / tools / perf / util / dso.c
1 #include <asm/bug.h>
2 #include <sys/time.h>
3 #include <sys/resource.h>
4 #include "symbol.h"
5 #include "dso.h"
6 #include "machine.h"
7 #include "auxtrace.h"
8 #include "util.h"
9 #include "debug.h"
10
11 char dso__symtab_origin(const struct dso *dso)
12 {
13         static const char origin[] = {
14                 [DSO_BINARY_TYPE__KALLSYMS]                     = 'k',
15                 [DSO_BINARY_TYPE__VMLINUX]                      = 'v',
16                 [DSO_BINARY_TYPE__JAVA_JIT]                     = 'j',
17                 [DSO_BINARY_TYPE__DEBUGLINK]                    = 'l',
18                 [DSO_BINARY_TYPE__BUILD_ID_CACHE]               = 'B',
19                 [DSO_BINARY_TYPE__FEDORA_DEBUGINFO]             = 'f',
20                 [DSO_BINARY_TYPE__UBUNTU_DEBUGINFO]             = 'u',
21                 [DSO_BINARY_TYPE__OPENEMBEDDED_DEBUGINFO]       = 'o',
22                 [DSO_BINARY_TYPE__BUILDID_DEBUGINFO]            = 'b',
23                 [DSO_BINARY_TYPE__SYSTEM_PATH_DSO]              = 'd',
24                 [DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE]          = 'K',
25                 [DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE_COMP]     = 'm',
26                 [DSO_BINARY_TYPE__GUEST_KALLSYMS]               = 'g',
27                 [DSO_BINARY_TYPE__GUEST_KMODULE]                = 'G',
28                 [DSO_BINARY_TYPE__GUEST_KMODULE_COMP]           = 'M',
29                 [DSO_BINARY_TYPE__GUEST_VMLINUX]                = 'V',
30         };
31
32         if (dso == NULL || dso->symtab_type == DSO_BINARY_TYPE__NOT_FOUND)
33                 return '!';
34         return origin[dso->symtab_type];
35 }
36
37 int dso__read_binary_type_filename(const struct dso *dso,
38                                    enum dso_binary_type type,
39                                    char *root_dir, char *filename, size_t size)
40 {
41         char build_id_hex[BUILD_ID_SIZE * 2 + 1];
42         int ret = 0;
43         size_t len;
44
45         switch (type) {
46         case DSO_BINARY_TYPE__DEBUGLINK: {
47                 char *debuglink;
48
49                 len = __symbol__join_symfs(filename, size, dso->long_name);
50                 debuglink = filename + len;
51                 while (debuglink != filename && *debuglink != '/')
52                         debuglink--;
53                 if (*debuglink == '/')
54                         debuglink++;
55                 ret = filename__read_debuglink(filename, debuglink,
56                                                size - (debuglink - filename));
57                 }
58                 break;
59         case DSO_BINARY_TYPE__BUILD_ID_CACHE:
60                 /* skip the locally configured cache if a symfs is given */
61                 if (symbol_conf.symfs[0] ||
62                     (dso__build_id_filename(dso, filename, size) == NULL))
63                         ret = -1;
64                 break;
65
66         case DSO_BINARY_TYPE__FEDORA_DEBUGINFO:
67                 len = __symbol__join_symfs(filename, size, "/usr/lib/debug");
68                 snprintf(filename + len, size - len, "%s.debug", dso->long_name);
69                 break;
70
71         case DSO_BINARY_TYPE__UBUNTU_DEBUGINFO:
72                 len = __symbol__join_symfs(filename, size, "/usr/lib/debug");
73                 snprintf(filename + len, size - len, "%s", dso->long_name);
74                 break;
75
76         case DSO_BINARY_TYPE__OPENEMBEDDED_DEBUGINFO:
77         {
78                 const char *last_slash;
79                 size_t dir_size;
80
81                 last_slash = dso->long_name + dso->long_name_len;
82                 while (last_slash != dso->long_name && *last_slash != '/')
83                         last_slash--;
84
85                 len = __symbol__join_symfs(filename, size, "");
86                 dir_size = last_slash - dso->long_name + 2;
87                 if (dir_size > (size - len)) {
88                         ret = -1;
89                         break;
90                 }
91                 len += scnprintf(filename + len, dir_size, "%s",  dso->long_name);
92                 len += scnprintf(filename + len , size - len, ".debug%s",
93                                                                 last_slash);
94                 break;
95         }
96
97         case DSO_BINARY_TYPE__BUILDID_DEBUGINFO:
98                 if (!dso->has_build_id) {
99                         ret = -1;
100                         break;
101                 }
102
103                 build_id__sprintf(dso->build_id,
104                                   sizeof(dso->build_id),
105                                   build_id_hex);
106                 len = __symbol__join_symfs(filename, size, "/usr/lib/debug/.build-id/");
107                 snprintf(filename + len, size - len, "%.2s/%s.debug",
108                          build_id_hex, build_id_hex + 2);
109                 break;
110
111         case DSO_BINARY_TYPE__VMLINUX:
112         case DSO_BINARY_TYPE__GUEST_VMLINUX:
113         case DSO_BINARY_TYPE__SYSTEM_PATH_DSO:
114                 __symbol__join_symfs(filename, size, dso->long_name);
115                 break;
116
117         case DSO_BINARY_TYPE__GUEST_KMODULE:
118         case DSO_BINARY_TYPE__GUEST_KMODULE_COMP:
119                 path__join3(filename, size, symbol_conf.symfs,
120                             root_dir, dso->long_name);
121                 break;
122
123         case DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE:
124         case DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE_COMP:
125                 __symbol__join_symfs(filename, size, dso->long_name);
126                 break;
127
128         case DSO_BINARY_TYPE__KCORE:
129         case DSO_BINARY_TYPE__GUEST_KCORE:
130                 snprintf(filename, size, "%s", dso->long_name);
131                 break;
132
133         default:
134         case DSO_BINARY_TYPE__KALLSYMS:
135         case DSO_BINARY_TYPE__GUEST_KALLSYMS:
136         case DSO_BINARY_TYPE__JAVA_JIT:
137         case DSO_BINARY_TYPE__NOT_FOUND:
138                 ret = -1;
139                 break;
140         }
141
142         return ret;
143 }
144
145 static const struct {
146         const char *fmt;
147         int (*decompress)(const char *input, int output);
148 } compressions[] = {
149 #ifdef HAVE_ZLIB_SUPPORT
150         { "gz", gzip_decompress_to_file },
151 #endif
152 #ifdef HAVE_LZMA_SUPPORT
153         { "xz", lzma_decompress_to_file },
154 #endif
155         { NULL, NULL },
156 };
157
158 bool is_supported_compression(const char *ext)
159 {
160         unsigned i;
161
162         for (i = 0; compressions[i].fmt; i++) {
163                 if (!strcmp(ext, compressions[i].fmt))
164                         return true;
165         }
166         return false;
167 }
168
169 bool is_kernel_module(const char *pathname, int cpumode)
170 {
171         struct kmod_path m;
172         int mode = cpumode & PERF_RECORD_MISC_CPUMODE_MASK;
173
174         WARN_ONCE(mode != cpumode,
175                   "Internal error: passing unmasked cpumode (%x) to is_kernel_module",
176                   cpumode);
177
178         switch (mode) {
179         case PERF_RECORD_MISC_USER:
180         case PERF_RECORD_MISC_HYPERVISOR:
181         case PERF_RECORD_MISC_GUEST_USER:
182                 return false;
183         /* Treat PERF_RECORD_MISC_CPUMODE_UNKNOWN as kernel */
184         default:
185                 if (kmod_path__parse(&m, pathname)) {
186                         pr_err("Failed to check whether %s is a kernel module or not. Assume it is.",
187                                         pathname);
188                         return true;
189                 }
190         }
191
192         return m.kmod;
193 }
194
195 bool decompress_to_file(const char *ext, const char *filename, int output_fd)
196 {
197         unsigned i;
198
199         for (i = 0; compressions[i].fmt; i++) {
200                 if (!strcmp(ext, compressions[i].fmt))
201                         return !compressions[i].decompress(filename,
202                                                            output_fd);
203         }
204         return false;
205 }
206
207 bool dso__needs_decompress(struct dso *dso)
208 {
209         return dso->symtab_type == DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE_COMP ||
210                 dso->symtab_type == DSO_BINARY_TYPE__GUEST_KMODULE_COMP;
211 }
212
213 /*
214  * Parses kernel module specified in @path and updates
215  * @m argument like:
216  *
217  *    @comp - true if @path contains supported compression suffix,
218  *            false otherwise
219  *    @kmod - true if @path contains '.ko' suffix in right position,
220  *            false otherwise
221  *    @name - if (@alloc_name && @kmod) is true, it contains strdup-ed base name
222  *            of the kernel module without suffixes, otherwise strudup-ed
223  *            base name of @path
224  *    @ext  - if (@alloc_ext && @comp) is true, it contains strdup-ed string
225  *            the compression suffix
226  *
227  * Returns 0 if there's no strdup error, -ENOMEM otherwise.
228  */
229 int __kmod_path__parse(struct kmod_path *m, const char *path,
230                        bool alloc_name, bool alloc_ext)
231 {
232         const char *name = strrchr(path, '/');
233         const char *ext  = strrchr(path, '.');
234         bool is_simple_name = false;
235
236         memset(m, 0x0, sizeof(*m));
237         name = name ? name + 1 : path;
238
239         /*
240          * '.' is also a valid character for module name. For example:
241          * [aaa.bbb] is a valid module name. '[' should have higher
242          * priority than '.ko' suffix.
243          *
244          * The kernel names are from machine__mmap_name. Such
245          * name should belong to kernel itself, not kernel module.
246          */
247         if (name[0] == '[') {
248                 is_simple_name = true;
249                 if ((strncmp(name, "[kernel.kallsyms]", 17) == 0) ||
250                     (strncmp(name, "[guest.kernel.kallsyms", 22) == 0) ||
251                     (strncmp(name, "[vdso]", 6) == 0) ||
252                     (strncmp(name, "[vsyscall]", 10) == 0)) {
253                         m->kmod = false;
254
255                 } else
256                         m->kmod = true;
257         }
258
259         /* No extension, just return name. */
260         if ((ext == NULL) || is_simple_name) {
261                 if (alloc_name) {
262                         m->name = strdup(name);
263                         return m->name ? 0 : -ENOMEM;
264                 }
265                 return 0;
266         }
267
268         if (is_supported_compression(ext + 1)) {
269                 m->comp = true;
270                 ext -= 3;
271         }
272
273         /* Check .ko extension only if there's enough name left. */
274         if (ext > name)
275                 m->kmod = !strncmp(ext, ".ko", 3);
276
277         if (alloc_name) {
278                 if (m->kmod) {
279                         if (asprintf(&m->name, "[%.*s]", (int) (ext - name), name) == -1)
280                                 return -ENOMEM;
281                 } else {
282                         if (asprintf(&m->name, "%s", name) == -1)
283                                 return -ENOMEM;
284                 }
285
286                 strxfrchar(m->name, '-', '_');
287         }
288
289         if (alloc_ext && m->comp) {
290                 m->ext = strdup(ext + 4);
291                 if (!m->ext) {
292                         free((void *) m->name);
293                         return -ENOMEM;
294                 }
295         }
296
297         return 0;
298 }
299
300 /*
301  * Global list of open DSOs and the counter.
302  */
303 static LIST_HEAD(dso__data_open);
304 static long dso__data_open_cnt;
305 static pthread_mutex_t dso__data_open_lock = PTHREAD_MUTEX_INITIALIZER;
306
307 static void dso__list_add(struct dso *dso)
308 {
309         list_add_tail(&dso->data.open_entry, &dso__data_open);
310         dso__data_open_cnt++;
311 }
312
313 static void dso__list_del(struct dso *dso)
314 {
315         list_del(&dso->data.open_entry);
316         WARN_ONCE(dso__data_open_cnt <= 0,
317                   "DSO data fd counter out of bounds.");
318         dso__data_open_cnt--;
319 }
320
321 static void close_first_dso(void);
322
323 static int do_open(char *name)
324 {
325         int fd;
326         char sbuf[STRERR_BUFSIZE];
327
328         do {
329                 fd = open(name, O_RDONLY);
330                 if (fd >= 0)
331                         return fd;
332
333                 pr_debug("dso open failed: %s\n",
334                          strerror_r(errno, sbuf, sizeof(sbuf)));
335                 if (!dso__data_open_cnt || errno != EMFILE)
336                         break;
337
338                 close_first_dso();
339         } while (1);
340
341         return -1;
342 }
343
344 static int __open_dso(struct dso *dso, struct machine *machine)
345 {
346         int fd;
347         char *root_dir = (char *)"";
348         char *name = malloc(PATH_MAX);
349
350         if (!name)
351                 return -ENOMEM;
352
353         if (machine)
354                 root_dir = machine->root_dir;
355
356         if (dso__read_binary_type_filename(dso, dso->binary_type,
357                                             root_dir, name, PATH_MAX)) {
358                 free(name);
359                 return -EINVAL;
360         }
361
362         fd = do_open(name);
363         free(name);
364         return fd;
365 }
366
367 static void check_data_close(void);
368
369 /**
370  * dso_close - Open DSO data file
371  * @dso: dso object
372  *
373  * Open @dso's data file descriptor and updates
374  * list/count of open DSO objects.
375  */
376 static int open_dso(struct dso *dso, struct machine *machine)
377 {
378         int fd = __open_dso(dso, machine);
379
380         if (fd >= 0) {
381                 dso__list_add(dso);
382                 /*
383                  * Check if we crossed the allowed number
384                  * of opened DSOs and close one if needed.
385                  */
386                 check_data_close();
387         }
388
389         return fd;
390 }
391
392 static void close_data_fd(struct dso *dso)
393 {
394         if (dso->data.fd >= 0) {
395                 close(dso->data.fd);
396                 dso->data.fd = -1;
397                 dso->data.file_size = 0;
398                 dso__list_del(dso);
399         }
400 }
401
402 /**
403  * dso_close - Close DSO data file
404  * @dso: dso object
405  *
406  * Close @dso's data file descriptor and updates
407  * list/count of open DSO objects.
408  */
409 static void close_dso(struct dso *dso)
410 {
411         close_data_fd(dso);
412 }
413
414 static void close_first_dso(void)
415 {
416         struct dso *dso;
417
418         dso = list_first_entry(&dso__data_open, struct dso, data.open_entry);
419         close_dso(dso);
420 }
421
422 static rlim_t get_fd_limit(void)
423 {
424         struct rlimit l;
425         rlim_t limit = 0;
426
427         /* Allow half of the current open fd limit. */
428         if (getrlimit(RLIMIT_NOFILE, &l) == 0) {
429                 if (l.rlim_cur == RLIM_INFINITY)
430                         limit = l.rlim_cur;
431                 else
432                         limit = l.rlim_cur / 2;
433         } else {
434                 pr_err("failed to get fd limit\n");
435                 limit = 1;
436         }
437
438         return limit;
439 }
440
441 static bool may_cache_fd(void)
442 {
443         static rlim_t limit;
444
445         if (!limit)
446                 limit = get_fd_limit();
447
448         if (limit == RLIM_INFINITY)
449                 return true;
450
451         return limit > (rlim_t) dso__data_open_cnt;
452 }
453
454 /*
455  * Check and close LRU dso if we crossed allowed limit
456  * for opened dso file descriptors. The limit is half
457  * of the RLIMIT_NOFILE files opened.
458 */
459 static void check_data_close(void)
460 {
461         bool cache_fd = may_cache_fd();
462
463         if (!cache_fd)
464                 close_first_dso();
465 }
466
467 /**
468  * dso__data_close - Close DSO data file
469  * @dso: dso object
470  *
471  * External interface to close @dso's data file descriptor.
472  */
473 void dso__data_close(struct dso *dso)
474 {
475         pthread_mutex_lock(&dso__data_open_lock);
476         close_dso(dso);
477         pthread_mutex_unlock(&dso__data_open_lock);
478 }
479
480 static void try_to_open_dso(struct dso *dso, struct machine *machine)
481 {
482         enum dso_binary_type binary_type_data[] = {
483                 DSO_BINARY_TYPE__BUILD_ID_CACHE,
484                 DSO_BINARY_TYPE__SYSTEM_PATH_DSO,
485                 DSO_BINARY_TYPE__NOT_FOUND,
486         };
487         int i = 0;
488
489         if (dso->data.fd >= 0)
490                 return;
491
492         if (dso->binary_type != DSO_BINARY_TYPE__NOT_FOUND) {
493                 dso->data.fd = open_dso(dso, machine);
494                 goto out;
495         }
496
497         do {
498                 dso->binary_type = binary_type_data[i++];
499
500                 dso->data.fd = open_dso(dso, machine);
501                 if (dso->data.fd >= 0)
502                         goto out;
503
504         } while (dso->binary_type != DSO_BINARY_TYPE__NOT_FOUND);
505 out:
506         if (dso->data.fd >= 0)
507                 dso->data.status = DSO_DATA_STATUS_OK;
508         else
509                 dso->data.status = DSO_DATA_STATUS_ERROR;
510 }
511
512 /**
513  * dso__data_get_fd - Get dso's data file descriptor
514  * @dso: dso object
515  * @machine: machine object
516  *
517  * External interface to find dso's file, open it and
518  * returns file descriptor.  It should be paired with
519  * dso__data_put_fd() if it returns non-negative value.
520  */
521 int dso__data_get_fd(struct dso *dso, struct machine *machine)
522 {
523         if (dso->data.status == DSO_DATA_STATUS_ERROR)
524                 return -1;
525
526         if (pthread_mutex_lock(&dso__data_open_lock) < 0)
527                 return -1;
528
529         try_to_open_dso(dso, machine);
530
531         if (dso->data.fd < 0)
532                 pthread_mutex_unlock(&dso__data_open_lock);
533
534         return dso->data.fd;
535 }
536
537 void dso__data_put_fd(struct dso *dso __maybe_unused)
538 {
539         pthread_mutex_unlock(&dso__data_open_lock);
540 }
541
542 bool dso__data_status_seen(struct dso *dso, enum dso_data_status_seen by)
543 {
544         u32 flag = 1 << by;
545
546         if (dso->data.status_seen & flag)
547                 return true;
548
549         dso->data.status_seen |= flag;
550
551         return false;
552 }
553
554 static void
555 dso_cache__free(struct dso *dso)
556 {
557         struct rb_root *root = &dso->data.cache;
558         struct rb_node *next = rb_first(root);
559
560         pthread_mutex_lock(&dso->lock);
561         while (next) {
562                 struct dso_cache *cache;
563
564                 cache = rb_entry(next, struct dso_cache, rb_node);
565                 next = rb_next(&cache->rb_node);
566                 rb_erase(&cache->rb_node, root);
567                 free(cache);
568         }
569         pthread_mutex_unlock(&dso->lock);
570 }
571
572 static struct dso_cache *dso_cache__find(struct dso *dso, u64 offset)
573 {
574         const struct rb_root *root = &dso->data.cache;
575         struct rb_node * const *p = &root->rb_node;
576         const struct rb_node *parent = NULL;
577         struct dso_cache *cache;
578
579         while (*p != NULL) {
580                 u64 end;
581
582                 parent = *p;
583                 cache = rb_entry(parent, struct dso_cache, rb_node);
584                 end = cache->offset + DSO__DATA_CACHE_SIZE;
585
586                 if (offset < cache->offset)
587                         p = &(*p)->rb_left;
588                 else if (offset >= end)
589                         p = &(*p)->rb_right;
590                 else
591                         return cache;
592         }
593
594         return NULL;
595 }
596
597 static struct dso_cache *
598 dso_cache__insert(struct dso *dso, struct dso_cache *new)
599 {
600         struct rb_root *root = &dso->data.cache;
601         struct rb_node **p = &root->rb_node;
602         struct rb_node *parent = NULL;
603         struct dso_cache *cache;
604         u64 offset = new->offset;
605
606         pthread_mutex_lock(&dso->lock);
607         while (*p != NULL) {
608                 u64 end;
609
610                 parent = *p;
611                 cache = rb_entry(parent, struct dso_cache, rb_node);
612                 end = cache->offset + DSO__DATA_CACHE_SIZE;
613
614                 if (offset < cache->offset)
615                         p = &(*p)->rb_left;
616                 else if (offset >= end)
617                         p = &(*p)->rb_right;
618                 else
619                         goto out;
620         }
621
622         rb_link_node(&new->rb_node, parent, p);
623         rb_insert_color(&new->rb_node, root);
624
625         cache = NULL;
626 out:
627         pthread_mutex_unlock(&dso->lock);
628         return cache;
629 }
630
631 static ssize_t
632 dso_cache__memcpy(struct dso_cache *cache, u64 offset,
633                   u8 *data, u64 size)
634 {
635         u64 cache_offset = offset - cache->offset;
636         u64 cache_size   = min(cache->size - cache_offset, size);
637
638         memcpy(data, cache->data + cache_offset, cache_size);
639         return cache_size;
640 }
641
642 static ssize_t
643 dso_cache__read(struct dso *dso, struct machine *machine,
644                 u64 offset, u8 *data, ssize_t size)
645 {
646         struct dso_cache *cache;
647         struct dso_cache *old;
648         ssize_t ret;
649
650         do {
651                 u64 cache_offset;
652
653                 cache = zalloc(sizeof(*cache) + DSO__DATA_CACHE_SIZE);
654                 if (!cache)
655                         return -ENOMEM;
656
657                 pthread_mutex_lock(&dso__data_open_lock);
658
659                 /*
660                  * dso->data.fd might be closed if other thread opened another
661                  * file (dso) due to open file limit (RLIMIT_NOFILE).
662                  */
663                 try_to_open_dso(dso, machine);
664
665                 if (dso->data.fd < 0) {
666                         ret = -errno;
667                         dso->data.status = DSO_DATA_STATUS_ERROR;
668                         break;
669                 }
670
671                 cache_offset = offset & DSO__DATA_CACHE_MASK;
672
673                 ret = pread(dso->data.fd, cache->data, DSO__DATA_CACHE_SIZE, cache_offset);
674                 if (ret <= 0)
675                         break;
676
677                 cache->offset = cache_offset;
678                 cache->size   = ret;
679         } while (0);
680
681         pthread_mutex_unlock(&dso__data_open_lock);
682
683         if (ret > 0) {
684                 old = dso_cache__insert(dso, cache);
685                 if (old) {
686                         /* we lose the race */
687                         free(cache);
688                         cache = old;
689                 }
690
691                 ret = dso_cache__memcpy(cache, offset, data, size);
692         }
693
694         if (ret <= 0)
695                 free(cache);
696
697         return ret;
698 }
699
700 static ssize_t dso_cache_read(struct dso *dso, struct machine *machine,
701                               u64 offset, u8 *data, ssize_t size)
702 {
703         struct dso_cache *cache;
704
705         cache = dso_cache__find(dso, offset);
706         if (cache)
707                 return dso_cache__memcpy(cache, offset, data, size);
708         else
709                 return dso_cache__read(dso, machine, offset, data, size);
710 }
711
712 /*
713  * Reads and caches dso data DSO__DATA_CACHE_SIZE size chunks
714  * in the rb_tree. Any read to already cached data is served
715  * by cached data.
716  */
717 static ssize_t cached_read(struct dso *dso, struct machine *machine,
718                            u64 offset, u8 *data, ssize_t size)
719 {
720         ssize_t r = 0;
721         u8 *p = data;
722
723         do {
724                 ssize_t ret;
725
726                 ret = dso_cache_read(dso, machine, offset, p, size);
727                 if (ret < 0)
728                         return ret;
729
730                 /* Reached EOF, return what we have. */
731                 if (!ret)
732                         break;
733
734                 BUG_ON(ret > size);
735
736                 r      += ret;
737                 p      += ret;
738                 offset += ret;
739                 size   -= ret;
740
741         } while (size);
742
743         return r;
744 }
745
746 static int data_file_size(struct dso *dso, struct machine *machine)
747 {
748         int ret = 0;
749         struct stat st;
750         char sbuf[STRERR_BUFSIZE];
751
752         if (dso->data.file_size)
753                 return 0;
754
755         if (dso->data.status == DSO_DATA_STATUS_ERROR)
756                 return -1;
757
758         pthread_mutex_lock(&dso__data_open_lock);
759
760         /*
761          * dso->data.fd might be closed if other thread opened another
762          * file (dso) due to open file limit (RLIMIT_NOFILE).
763          */
764         try_to_open_dso(dso, machine);
765
766         if (dso->data.fd < 0) {
767                 ret = -errno;
768                 dso->data.status = DSO_DATA_STATUS_ERROR;
769                 goto out;
770         }
771
772         if (fstat(dso->data.fd, &st) < 0) {
773                 ret = -errno;
774                 pr_err("dso cache fstat failed: %s\n",
775                        strerror_r(errno, sbuf, sizeof(sbuf)));
776                 dso->data.status = DSO_DATA_STATUS_ERROR;
777                 goto out;
778         }
779         dso->data.file_size = st.st_size;
780
781 out:
782         pthread_mutex_unlock(&dso__data_open_lock);
783         return ret;
784 }
785
786 /**
787  * dso__data_size - Return dso data size
788  * @dso: dso object
789  * @machine: machine object
790  *
791  * Return: dso data size
792  */
793 off_t dso__data_size(struct dso *dso, struct machine *machine)
794 {
795         if (data_file_size(dso, machine))
796                 return -1;
797
798         /* For now just estimate dso data size is close to file size */
799         return dso->data.file_size;
800 }
801
802 static ssize_t data_read_offset(struct dso *dso, struct machine *machine,
803                                 u64 offset, u8 *data, ssize_t size)
804 {
805         if (data_file_size(dso, machine))
806                 return -1;
807
808         /* Check the offset sanity. */
809         if (offset > dso->data.file_size)
810                 return -1;
811
812         if (offset + size < offset)
813                 return -1;
814
815         return cached_read(dso, machine, offset, data, size);
816 }
817
818 /**
819  * dso__data_read_offset - Read data from dso file offset
820  * @dso: dso object
821  * @machine: machine object
822  * @offset: file offset
823  * @data: buffer to store data
824  * @size: size of the @data buffer
825  *
826  * External interface to read data from dso file offset. Open
827  * dso data file and use cached_read to get the data.
828  */
829 ssize_t dso__data_read_offset(struct dso *dso, struct machine *machine,
830                               u64 offset, u8 *data, ssize_t size)
831 {
832         if (dso->data.status == DSO_DATA_STATUS_ERROR)
833                 return -1;
834
835         return data_read_offset(dso, machine, offset, data, size);
836 }
837
838 /**
839  * dso__data_read_addr - Read data from dso address
840  * @dso: dso object
841  * @machine: machine object
842  * @add: virtual memory address
843  * @data: buffer to store data
844  * @size: size of the @data buffer
845  *
846  * External interface to read data from dso address.
847  */
848 ssize_t dso__data_read_addr(struct dso *dso, struct map *map,
849                             struct machine *machine, u64 addr,
850                             u8 *data, ssize_t size)
851 {
852         u64 offset = map->map_ip(map, addr);
853         return dso__data_read_offset(dso, machine, offset, data, size);
854 }
855
856 struct map *dso__new_map(const char *name)
857 {
858         struct map *map = NULL;
859         struct dso *dso = dso__new(name);
860
861         if (dso)
862                 map = map__new2(0, dso, MAP__FUNCTION);
863
864         return map;
865 }
866
867 struct dso *machine__findnew_kernel(struct machine *machine, const char *name,
868                                     const char *short_name, int dso_type)
869 {
870         /*
871          * The kernel dso could be created by build_id processing.
872          */
873         struct dso *dso = machine__findnew_dso(machine, name);
874
875         /*
876          * We need to run this in all cases, since during the build_id
877          * processing we had no idea this was the kernel dso.
878          */
879         if (dso != NULL) {
880                 dso__set_short_name(dso, short_name, false);
881                 dso->kernel = dso_type;
882         }
883
884         return dso;
885 }
886
887 /*
888  * Find a matching entry and/or link current entry to RB tree.
889  * Either one of the dso or name parameter must be non-NULL or the
890  * function will not work.
891  */
892 static struct dso *__dso__findlink_by_longname(struct rb_root *root,
893                                                struct dso *dso, const char *name)
894 {
895         struct rb_node **p = &root->rb_node;
896         struct rb_node  *parent = NULL;
897
898         if (!name)
899                 name = dso->long_name;
900         /*
901          * Find node with the matching name
902          */
903         while (*p) {
904                 struct dso *this = rb_entry(*p, struct dso, rb_node);
905                 int rc = strcmp(name, this->long_name);
906
907                 parent = *p;
908                 if (rc == 0) {
909                         /*
910                          * In case the new DSO is a duplicate of an existing
911                          * one, print an one-time warning & put the new entry
912                          * at the end of the list of duplicates.
913                          */
914                         if (!dso || (dso == this))
915                                 return this;    /* Find matching dso */
916                         /*
917                          * The core kernel DSOs may have duplicated long name.
918                          * In this case, the short name should be different.
919                          * Comparing the short names to differentiate the DSOs.
920                          */
921                         rc = strcmp(dso->short_name, this->short_name);
922                         if (rc == 0) {
923                                 pr_err("Duplicated dso name: %s\n", name);
924                                 return NULL;
925                         }
926                 }
927                 if (rc < 0)
928                         p = &parent->rb_left;
929                 else
930                         p = &parent->rb_right;
931         }
932         if (dso) {
933                 /* Add new node and rebalance tree */
934                 rb_link_node(&dso->rb_node, parent, p);
935                 rb_insert_color(&dso->rb_node, root);
936                 dso->root = root;
937         }
938         return NULL;
939 }
940
941 static inline struct dso *__dso__find_by_longname(struct rb_root *root,
942                                                   const char *name)
943 {
944         return __dso__findlink_by_longname(root, NULL, name);
945 }
946
947 void dso__set_long_name(struct dso *dso, const char *name, bool name_allocated)
948 {
949         struct rb_root *root = dso->root;
950
951         if (name == NULL)
952                 return;
953
954         if (dso->long_name_allocated)
955                 free((char *)dso->long_name);
956
957         if (root) {
958                 rb_erase(&dso->rb_node, root);
959                 /*
960                  * __dso__findlink_by_longname() isn't guaranteed to add it
961                  * back, so a clean removal is required here.
962                  */
963                 RB_CLEAR_NODE(&dso->rb_node);
964                 dso->root = NULL;
965         }
966
967         dso->long_name           = name;
968         dso->long_name_len       = strlen(name);
969         dso->long_name_allocated = name_allocated;
970
971         if (root)
972                 __dso__findlink_by_longname(root, dso, NULL);
973 }
974
975 void dso__set_short_name(struct dso *dso, const char *name, bool name_allocated)
976 {
977         if (name == NULL)
978                 return;
979
980         if (dso->short_name_allocated)
981                 free((char *)dso->short_name);
982
983         dso->short_name           = name;
984         dso->short_name_len       = strlen(name);
985         dso->short_name_allocated = name_allocated;
986 }
987
988 static void dso__set_basename(struct dso *dso)
989 {
990        /*
991         * basename() may modify path buffer, so we must pass
992         * a copy.
993         */
994        char *base, *lname = strdup(dso->long_name);
995
996        if (!lname)
997                return;
998
999        /*
1000         * basename() may return a pointer to internal
1001         * storage which is reused in subsequent calls
1002         * so copy the result.
1003         */
1004        base = strdup(basename(lname));
1005
1006        free(lname);
1007
1008        if (!base)
1009                return;
1010
1011        dso__set_short_name(dso, base, true);
1012 }
1013
1014 int dso__name_len(const struct dso *dso)
1015 {
1016         if (!dso)
1017                 return strlen("[unknown]");
1018         if (verbose)
1019                 return dso->long_name_len;
1020
1021         return dso->short_name_len;
1022 }
1023
1024 bool dso__loaded(const struct dso *dso, enum map_type type)
1025 {
1026         return dso->loaded & (1 << type);
1027 }
1028
1029 bool dso__sorted_by_name(const struct dso *dso, enum map_type type)
1030 {
1031         return dso->sorted_by_name & (1 << type);
1032 }
1033
1034 void dso__set_sorted_by_name(struct dso *dso, enum map_type type)
1035 {
1036         dso->sorted_by_name |= (1 << type);
1037 }
1038
1039 struct dso *dso__new(const char *name)
1040 {
1041         struct dso *dso = calloc(1, sizeof(*dso) + strlen(name) + 1);
1042
1043         if (dso != NULL) {
1044                 int i;
1045                 strcpy(dso->name, name);
1046                 dso__set_long_name(dso, dso->name, false);
1047                 dso__set_short_name(dso, dso->name, false);
1048                 for (i = 0; i < MAP__NR_TYPES; ++i)
1049                         dso->symbols[i] = dso->symbol_names[i] = RB_ROOT;
1050                 dso->data.cache = RB_ROOT;
1051                 dso->data.fd = -1;
1052                 dso->data.status = DSO_DATA_STATUS_UNKNOWN;
1053                 dso->symtab_type = DSO_BINARY_TYPE__NOT_FOUND;
1054                 dso->binary_type = DSO_BINARY_TYPE__NOT_FOUND;
1055                 dso->is_64_bit = (sizeof(void *) == 8);
1056                 dso->loaded = 0;
1057                 dso->rel = 0;
1058                 dso->sorted_by_name = 0;
1059                 dso->has_build_id = 0;
1060                 dso->has_srcline = 1;
1061                 dso->a2l_fails = 1;
1062                 dso->kernel = DSO_TYPE_USER;
1063                 dso->needs_swap = DSO_SWAP__UNSET;
1064                 RB_CLEAR_NODE(&dso->rb_node);
1065                 dso->root = NULL;
1066                 INIT_LIST_HEAD(&dso->node);
1067                 INIT_LIST_HEAD(&dso->data.open_entry);
1068                 pthread_mutex_init(&dso->lock, NULL);
1069                 atomic_set(&dso->refcnt, 1);
1070         }
1071
1072         return dso;
1073 }
1074
1075 void dso__delete(struct dso *dso)
1076 {
1077         int i;
1078
1079         if (!RB_EMPTY_NODE(&dso->rb_node))
1080                 pr_err("DSO %s is still in rbtree when being deleted!\n",
1081                        dso->long_name);
1082         for (i = 0; i < MAP__NR_TYPES; ++i)
1083                 symbols__delete(&dso->symbols[i]);
1084
1085         if (dso->short_name_allocated) {
1086                 zfree((char **)&dso->short_name);
1087                 dso->short_name_allocated = false;
1088         }
1089
1090         if (dso->long_name_allocated) {
1091                 zfree((char **)&dso->long_name);
1092                 dso->long_name_allocated = false;
1093         }
1094
1095         dso__data_close(dso);
1096         auxtrace_cache__free(dso->auxtrace_cache);
1097         dso_cache__free(dso);
1098         dso__free_a2l(dso);
1099         zfree(&dso->symsrc_filename);
1100         pthread_mutex_destroy(&dso->lock);
1101         free(dso);
1102 }
1103
1104 struct dso *dso__get(struct dso *dso)
1105 {
1106         if (dso)
1107                 atomic_inc(&dso->refcnt);
1108         return dso;
1109 }
1110
1111 void dso__put(struct dso *dso)
1112 {
1113         if (dso && atomic_dec_and_test(&dso->refcnt))
1114                 dso__delete(dso);
1115 }
1116
1117 void dso__set_build_id(struct dso *dso, void *build_id)
1118 {
1119         memcpy(dso->build_id, build_id, sizeof(dso->build_id));
1120         dso->has_build_id = 1;
1121 }
1122
1123 bool dso__build_id_equal(const struct dso *dso, u8 *build_id)
1124 {
1125         return memcmp(dso->build_id, build_id, sizeof(dso->build_id)) == 0;
1126 }
1127
1128 void dso__read_running_kernel_build_id(struct dso *dso, struct machine *machine)
1129 {
1130         char path[PATH_MAX];
1131
1132         if (machine__is_default_guest(machine))
1133                 return;
1134         sprintf(path, "%s/sys/kernel/notes", machine->root_dir);
1135         if (sysfs__read_build_id(path, dso->build_id,
1136                                  sizeof(dso->build_id)) == 0)
1137                 dso->has_build_id = true;
1138 }
1139
1140 int dso__kernel_module_get_build_id(struct dso *dso,
1141                                     const char *root_dir)
1142 {
1143         char filename[PATH_MAX];
1144         /*
1145          * kernel module short names are of the form "[module]" and
1146          * we need just "module" here.
1147          */
1148         const char *name = dso->short_name + 1;
1149
1150         snprintf(filename, sizeof(filename),
1151                  "%s/sys/module/%.*s/notes/.note.gnu.build-id",
1152                  root_dir, (int)strlen(name) - 1, name);
1153
1154         if (sysfs__read_build_id(filename, dso->build_id,
1155                                  sizeof(dso->build_id)) == 0)
1156                 dso->has_build_id = true;
1157
1158         return 0;
1159 }
1160
1161 bool __dsos__read_build_ids(struct list_head *head, bool with_hits)
1162 {
1163         bool have_build_id = false;
1164         struct dso *pos;
1165
1166         list_for_each_entry(pos, head, node) {
1167                 if (with_hits && !pos->hit)
1168                         continue;
1169                 if (pos->has_build_id) {
1170                         have_build_id = true;
1171                         continue;
1172                 }
1173                 if (filename__read_build_id(pos->long_name, pos->build_id,
1174                                             sizeof(pos->build_id)) > 0) {
1175                         have_build_id     = true;
1176                         pos->has_build_id = true;
1177                 }
1178         }
1179
1180         return have_build_id;
1181 }
1182
1183 void __dsos__add(struct dsos *dsos, struct dso *dso)
1184 {
1185         list_add_tail(&dso->node, &dsos->head);
1186         __dso__findlink_by_longname(&dsos->root, dso, NULL);
1187         /*
1188          * It is now in the linked list, grab a reference, then garbage collect
1189          * this when needing memory, by looking at LRU dso instances in the
1190          * list with atomic_read(&dso->refcnt) == 1, i.e. no references
1191          * anywhere besides the one for the list, do, under a lock for the
1192          * list: remove it from the list, then a dso__put(), that probably will
1193          * be the last and will then call dso__delete(), end of life.
1194          *
1195          * That, or at the end of the 'struct machine' lifetime, when all
1196          * 'struct dso' instances will be removed from the list, in
1197          * dsos__exit(), if they have no other reference from some other data
1198          * structure.
1199          *
1200          * E.g.: after processing a 'perf.data' file and storing references
1201          * to objects instantiated while processing events, we will have
1202          * references to the 'thread', 'map', 'dso' structs all from 'struct
1203          * hist_entry' instances, but we may not need anything not referenced,
1204          * so we might as well call machines__exit()/machines__delete() and
1205          * garbage collect it.
1206          */
1207         dso__get(dso);
1208 }
1209
1210 void dsos__add(struct dsos *dsos, struct dso *dso)
1211 {
1212         pthread_rwlock_wrlock(&dsos->lock);
1213         __dsos__add(dsos, dso);
1214         pthread_rwlock_unlock(&dsos->lock);
1215 }
1216
1217 struct dso *__dsos__find(struct dsos *dsos, const char *name, bool cmp_short)
1218 {
1219         struct dso *pos;
1220
1221         if (cmp_short) {
1222                 list_for_each_entry(pos, &dsos->head, node)
1223                         if (strcmp(pos->short_name, name) == 0)
1224                                 return pos;
1225                 return NULL;
1226         }
1227         return __dso__find_by_longname(&dsos->root, name);
1228 }
1229
1230 struct dso *dsos__find(struct dsos *dsos, const char *name, bool cmp_short)
1231 {
1232         struct dso *dso;
1233         pthread_rwlock_rdlock(&dsos->lock);
1234         dso = __dsos__find(dsos, name, cmp_short);
1235         pthread_rwlock_unlock(&dsos->lock);
1236         return dso;
1237 }
1238
1239 struct dso *__dsos__addnew(struct dsos *dsos, const char *name)
1240 {
1241         struct dso *dso = dso__new(name);
1242
1243         if (dso != NULL) {
1244                 __dsos__add(dsos, dso);
1245                 dso__set_basename(dso);
1246         }
1247         return dso;
1248 }
1249
1250 struct dso *__dsos__findnew(struct dsos *dsos, const char *name)
1251 {
1252         struct dso *dso = __dsos__find(dsos, name, false);
1253
1254         return dso ? dso : __dsos__addnew(dsos, name);
1255 }
1256
1257 struct dso *dsos__findnew(struct dsos *dsos, const char *name)
1258 {
1259         struct dso *dso;
1260         pthread_rwlock_wrlock(&dsos->lock);
1261         dso = dso__get(__dsos__findnew(dsos, name));
1262         pthread_rwlock_unlock(&dsos->lock);
1263         return dso;
1264 }
1265
1266 size_t __dsos__fprintf_buildid(struct list_head *head, FILE *fp,
1267                                bool (skip)(struct dso *dso, int parm), int parm)
1268 {
1269         struct dso *pos;
1270         size_t ret = 0;
1271
1272         list_for_each_entry(pos, head, node) {
1273                 if (skip && skip(pos, parm))
1274                         continue;
1275                 ret += dso__fprintf_buildid(pos, fp);
1276                 ret += fprintf(fp, " %s\n", pos->long_name);
1277         }
1278         return ret;
1279 }
1280
1281 size_t __dsos__fprintf(struct list_head *head, FILE *fp)
1282 {
1283         struct dso *pos;
1284         size_t ret = 0;
1285
1286         list_for_each_entry(pos, head, node) {
1287                 int i;
1288                 for (i = 0; i < MAP__NR_TYPES; ++i)
1289                         ret += dso__fprintf(pos, i, fp);
1290         }
1291
1292         return ret;
1293 }
1294
1295 size_t dso__fprintf_buildid(struct dso *dso, FILE *fp)
1296 {
1297         char sbuild_id[BUILD_ID_SIZE * 2 + 1];
1298
1299         build_id__sprintf(dso->build_id, sizeof(dso->build_id), sbuild_id);
1300         return fprintf(fp, "%s", sbuild_id);
1301 }
1302
1303 size_t dso__fprintf(struct dso *dso, enum map_type type, FILE *fp)
1304 {
1305         struct rb_node *nd;
1306         size_t ret = fprintf(fp, "dso: %s (", dso->short_name);
1307
1308         if (dso->short_name != dso->long_name)
1309                 ret += fprintf(fp, "%s, ", dso->long_name);
1310         ret += fprintf(fp, "%s, %sloaded, ", map_type__name[type],
1311                        dso__loaded(dso, type) ? "" : "NOT ");
1312         ret += dso__fprintf_buildid(dso, fp);
1313         ret += fprintf(fp, ")\n");
1314         for (nd = rb_first(&dso->symbols[type]); nd; nd = rb_next(nd)) {
1315                 struct symbol *pos = rb_entry(nd, struct symbol, rb_node);
1316                 ret += symbol__fprintf(pos, fp);
1317         }
1318
1319         return ret;
1320 }
1321
1322 enum dso_type dso__type(struct dso *dso, struct machine *machine)
1323 {
1324         int fd;
1325         enum dso_type type = DSO__TYPE_UNKNOWN;
1326
1327         fd = dso__data_get_fd(dso, machine);
1328         if (fd >= 0) {
1329                 type = dso__type_fd(fd);
1330                 dso__data_put_fd(dso);
1331         }
1332
1333         return type;
1334 }
1335
1336 int dso__strerror_load(struct dso *dso, char *buf, size_t buflen)
1337 {
1338         int idx, errnum = dso->load_errno;
1339         /*
1340          * This must have a same ordering as the enum dso_load_errno.
1341          */
1342         static const char *dso_load__error_str[] = {
1343         "Internal tools/perf/ library error",
1344         "Invalid ELF file",
1345         "Can not read build id",
1346         "Mismatching build id",
1347         "Decompression failure",
1348         };
1349
1350         BUG_ON(buflen == 0);
1351
1352         if (errnum >= 0) {
1353                 const char *err = strerror_r(errnum, buf, buflen);
1354
1355                 if (err != buf)
1356                         scnprintf(buf, buflen, "%s", err);
1357
1358                 return 0;
1359         }
1360
1361         if (errnum <  __DSO_LOAD_ERRNO__START || errnum >= __DSO_LOAD_ERRNO__END)
1362                 return -1;
1363
1364         idx = errnum - __DSO_LOAD_ERRNO__START;
1365         scnprintf(buf, buflen, "%s", dso_load__error_str[idx]);
1366         return 0;
1367 }