Lines Matching refs:ebx
54 # define ENTRANCE PUSH (%ebx);
55 # define RETURN_END POP (%ebx); ret
56 # define RETURN RETURN_END; CFI_PUSH (%ebx)
138 PUSH (%ebx)
152 leal (%ecx), %ebx
153 subl %edx, %ebx
154 leal (%eax, %ebx), %eax
155 shrl $6, %ebx
161 PUSH (%ebx)
163 add $_GLOBAL_OFFSET_TABLE_, %ebx
164 cmp __x86_shared_cache_size_half@GOTOFF(%ebx), %edi
165 POP (%ebx)
187 sub $1, %ebx
196 POP (%ebx)
212 movzbl -1(%eax,%ecx), %ebx
219 movzwl -2(%eax,%ecx), %ebx
227 movl -4(%eax,%ecx), %ebx
229 movl %ebx, -4(%edx,%ecx)
236 movl (%eax), %ebx
238 movl %ebx, (%edx)
255 sub $1, %ebx
265 POP (%ebx)
330 PUSH (%ebx)
344 movl %ecx, %ebx
345 subl %edx, %ebx
346 addl %ebx, %eax
347 movl %esi, %ebx
348 subl %ecx, %ebx
349 shrl $6, %ebx
355 PUSH (%ebx)
357 add $_GLOBAL_OFFSET_TABLE_, %ebx
358 cmp __x86_shared_cache_size_half@GOTOFF(%ebx), %edi
359 POP (%ebx)
381 sub $1, %ebx
390 POP (%ebx)
405 movzbl -1(%eax,%ecx), %ebx
412 movzwl -2(%eax,%ecx), %ebx
419 movl (%eax), %ebx
421 movl %ebx, (%edx)
451 sub $1, %ebx
461 POP (%ebx)
474 add $_GLOBAL_OFFSET_TABLE_, %ebx
475 cmp __x86_shared_cache_size_half@GOTOFF(%ebx), %ecx
508 leal 64(%edx), %ebx
509 andl $-64, %ebx
519 cmpl %ebx, %ecx
523 cmpl %ebx, %ecx
529 prefetcht0 128(%ebx, %eax)
531 movdqu (%ebx, %eax), %xmm0
532 movdqu 16(%ebx, %eax), %xmm1
533 movdqu 32(%ebx, %eax), %xmm2
534 movdqu 48(%ebx, %eax), %xmm3
535 movdqa %xmm0, (%ebx)
536 movaps %xmm1, 16(%ebx)
537 movaps %xmm2, 32(%ebx)
538 movaps %xmm3, 48(%ebx)
539 lea 64(%ebx), %ebx
540 cmpl %ebx, %ecx
544 movdqu (%ebx, %eax), %xmm0
545 movdqu 16(%ebx, %eax), %xmm1
546 movdqu 32(%ebx, %eax), %xmm2
547 movdqu 48(%ebx, %eax), %xmm3
548 movdqu 64(%ebx, %eax), %xmm4
549 movdqu 80(%ebx, %eax), %xmm5
550 movdqu 96(%ebx, %eax), %xmm6
551 movdqu 112(%ebx, %eax), %xmm7
552 movdqa %xmm0, (%ebx)
553 movaps %xmm1, 16(%ebx)
554 movaps %xmm2, 32(%ebx)
555 movaps %xmm3, 48(%ebx)
556 movaps %xmm4, 64(%ebx)
557 movaps %xmm5, 80(%ebx)
558 movaps %xmm6, 96(%ebx)
559 movaps %xmm7, 112(%ebx)
563 movdqu (%ebx, %eax), %xmm0
564 movdqu 16(%ebx, %eax), %xmm1
565 movdqu 32(%ebx, %eax), %xmm2
566 movdqu 48(%ebx, %eax), %xmm3
567 movdqa %xmm0, (%ebx)
568 movaps %xmm1, 16(%ebx)
569 movaps %xmm2, 32(%ebx)
570 movaps %xmm3, 48(%ebx)
610 leal 128(%edx), %ebx
611 andl $-128, %ebx
620 movdqu (%ebx, %eax), %xmm0
621 movdqu 16(%ebx, %eax), %xmm1
622 movdqu 32(%ebx, %eax), %xmm2
623 movdqu 48(%ebx, %eax), %xmm3
624 movdqu 64(%ebx, %eax), %xmm4
625 movdqu 80(%ebx, %eax), %xmm5
626 movdqu 96(%ebx, %eax), %xmm6
627 movdqu 112(%ebx, %eax), %xmm7
628 movntdq %xmm0, (%ebx)
629 movntdq %xmm1, 16(%ebx)
630 movntdq %xmm2, 32(%ebx)
631 movntdq %xmm3, 48(%ebx)
632 movntdq %xmm4, 64(%ebx)
633 movntdq %xmm5, 80(%ebx)
634 movntdq %xmm6, 96(%ebx)
635 movntdq %xmm7, 112(%ebx)
636 lea 128(%ebx), %ebx
637 cmpl %ebx, %ecx
651 movzbl (%eax), %ebx
655 movzwl -2(%eax,%ecx), %ebx
667 movl (%eax), %ebx
668 movl %ebx, (%edx)
669 movl -4(%eax,%ecx), %ebx
670 movl %ebx, -4(%edx,%ecx)