diff options
Diffstat (limited to 'llvm/test/CodeGen/X86/avx512-cvt.ll')
-rw-r--r-- | llvm/test/CodeGen/X86/avx512-cvt.ll | 348 |
1 files changed, 174 insertions, 174 deletions
diff --git a/llvm/test/CodeGen/X86/avx512-cvt.ll b/llvm/test/CodeGen/X86/avx512-cvt.ll index 9c17ea603ac..0487b560729 100644 --- a/llvm/test/CodeGen/X86/avx512-cvt.ll +++ b/llvm/test/CodeGen/X86/avx512-cvt.ll @@ -10,7 +10,7 @@ define <16 x float> @sitof32(<16 x i32> %a) nounwind { ; ALL-LABEL: sitof32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq %b = sitofp <16 x i32> %a to <16 x float> @@ -19,7 +19,7 @@ define <16 x float> @sitof32(<16 x i32> %a) nounwind { define <8 x double> @sltof864(<8 x i64> %a) { ; NODQ-LABEL: sltof864: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $3, %zmm0, %xmm1 ; NODQ-NEXT: vpextrq $1, %xmm1, %rax ; NODQ-NEXT: vcvtsi2sdq %rax, %xmm2, %xmm2 @@ -49,7 +49,7 @@ define <8 x double> @sltof864(<8 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: sltof864: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtqq2pd %zmm0, %zmm0 ; DQ-NEXT: retq %b = sitofp <8 x i64> %a to <8 x double> @@ -58,7 +58,7 @@ define <8 x double> @sltof864(<8 x i64> %a) { define <4 x double> @slto4f64(<4 x i64> %a) { ; NODQ-LABEL: slto4f64: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti128 $1, %ymm0, %xmm1 ; NODQ-NEXT: vpextrq $1, %xmm1, %rax ; NODQ-NEXT: vcvtsi2sdq %rax, %xmm2, %xmm2 @@ -74,12 +74,12 @@ define <4 x double> @slto4f64(<4 x i64> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: slto4f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvtqq2pd %ymm0, %ymm0 ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: slto4f64: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vcvtqq2pd %zmm0, %zmm0 ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<kill> @@ -90,7 +90,7 @@ define <4 x double> @slto4f64(<4 x i64> %a) { define <2 x double> @slto2f64(<2 x i64> %a) { ; NODQ-LABEL: slto2f64: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vpextrq $1, %xmm0, %rax ; NODQ-NEXT: vcvtsi2sdq %rax, %xmm1, %xmm1 ; NODQ-NEXT: vmovq %xmm0, %rax @@ -99,12 +99,12 @@ define <2 x double> @slto2f64(<2 x i64> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: slto2f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvtqq2pd %xmm0, %xmm0 ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: slto2f64: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vcvtqq2pd %zmm0, %zmm0 ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<kill> @@ -116,7 +116,7 @@ define <2 x double> @slto2f64(<2 x i64> %a) { define <2 x float> @sltof2f32(<2 x i64> %a) { ; NODQ-LABEL: sltof2f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vpextrq $1, %xmm0, %rax ; NODQ-NEXT: vcvtsi2ssq %rax, %xmm1, %xmm1 ; NODQ-NEXT: vmovq %xmm0, %rax @@ -127,12 +127,12 @@ define <2 x float> @sltof2f32(<2 x i64> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: sltof2f32: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvtqq2ps %xmm0, %xmm0 ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: sltof2f32: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vcvtqq2ps %zmm0, %ymm0 ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -144,7 +144,7 @@ define <2 x float> @sltof2f32(<2 x i64> %a) { define <4 x float> @slto4f32_mem(<4 x i64>* %a) { ; NODQ-LABEL: slto4f32_mem: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vmovdqu (%rdi), %ymm0 ; NODQ-NEXT: vpextrq $1, %xmm0, %rax ; NODQ-NEXT: vcvtsi2ssq %rax, %xmm1, %xmm1 @@ -162,12 +162,12 @@ define <4 x float> @slto4f32_mem(<4 x i64>* %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: slto4f32_mem: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvtqq2psy (%rdi), %xmm0 ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: slto4f32_mem: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: vmovups (%rdi), %ymm0 ; AVX512DQ-NEXT: vcvtqq2ps %zmm0, %ymm0 ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -180,7 +180,7 @@ define <4 x float> @slto4f32_mem(<4 x i64>* %a) { define <4 x i64> @f64to4sl(<4 x double> %a) { ; NODQ-LABEL: f64to4sl: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextractf128 $1, %ymm0, %xmm1 ; NODQ-NEXT: vcvttsd2si %xmm1, %rax ; NODQ-NEXT: vmovq %rax, %xmm2 @@ -198,12 +198,12 @@ define <4 x i64> @f64to4sl(<4 x double> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: f64to4sl: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvttpd2qq %ymm0, %ymm0 ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: f64to4sl: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vcvttpd2qq %zmm0, %zmm0 ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<kill> @@ -214,7 +214,7 @@ define <4 x i64> @f64to4sl(<4 x double> %a) { define <4 x i64> @f32to4sl(<4 x float> %a) { ; NODQ-LABEL: f32to4sl: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vpermilps {{.*#+}} xmm1 = xmm0[3,1,2,3] ; NODQ-NEXT: vcvttss2si %xmm1, %rax ; NODQ-NEXT: vmovq %rax, %xmm1 @@ -232,12 +232,12 @@ define <4 x i64> @f32to4sl(<4 x float> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: f32to4sl: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvttps2qq %xmm0, %ymm0 ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: f32to4sl: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<def> ; AVX512DQ-NEXT: vcvttps2qq %ymm0, %zmm0 ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<kill> @@ -248,7 +248,7 @@ define <4 x i64> @f32to4sl(<4 x float> %a) { define <4 x float> @slto4f32(<4 x i64> %a) { ; NODQ-LABEL: slto4f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vpextrq $1, %xmm0, %rax ; NODQ-NEXT: vcvtsi2ssq %rax, %xmm1, %xmm1 ; NODQ-NEXT: vmovq %xmm0, %rax @@ -265,13 +265,13 @@ define <4 x float> @slto4f32(<4 x i64> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: slto4f32: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvtqq2ps %ymm0, %xmm0 ; VLDQ-NEXT: vzeroupper ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: slto4f32: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vcvtqq2ps %zmm0, %ymm0 ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -283,7 +283,7 @@ define <4 x float> @slto4f32(<4 x i64> %a) { define <4 x float> @ulto4f32(<4 x i64> %a) { ; NODQ-LABEL: ulto4f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vpextrq $1, %xmm0, %rax ; NODQ-NEXT: vcvtusi2ssq %rax, %xmm1, %xmm1 ; NODQ-NEXT: vmovq %xmm0, %rax @@ -300,13 +300,13 @@ define <4 x float> @ulto4f32(<4 x i64> %a) { ; NODQ-NEXT: retq ; ; VLDQ-LABEL: ulto4f32: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vcvtuqq2ps %ymm0, %xmm0 ; VLDQ-NEXT: vzeroupper ; VLDQ-NEXT: retq ; ; AVX512DQ-LABEL: ulto4f32: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vcvtuqq2ps %zmm0, %ymm0 ; AVX512DQ-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -318,7 +318,7 @@ define <4 x float> @ulto4f32(<4 x i64> %a) { define <8 x double> @ulto8f64(<8 x i64> %a) { ; NODQ-LABEL: ulto8f64: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $3, %zmm0, %xmm1 ; NODQ-NEXT: vpextrq $1, %xmm1, %rax ; NODQ-NEXT: vcvtusi2sdq %rax, %xmm2, %xmm2 @@ -348,7 +348,7 @@ define <8 x double> @ulto8f64(<8 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: ulto8f64: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtuqq2pd %zmm0, %zmm0 ; DQ-NEXT: retq %b = uitofp <8 x i64> %a to <8 x double> @@ -357,7 +357,7 @@ define <8 x double> @ulto8f64(<8 x i64> %a) { define <16 x double> @ulto16f64(<16 x i64> %a) { ; NODQ-LABEL: ulto16f64: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $3, %zmm0, %xmm2 ; NODQ-NEXT: vpextrq $1, %xmm2, %rax ; NODQ-NEXT: vcvtusi2sdq %rax, %xmm3, %xmm3 @@ -413,7 +413,7 @@ define <16 x double> @ulto16f64(<16 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: ulto16f64: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtuqq2pd %zmm0, %zmm0 ; DQ-NEXT: vcvtuqq2pd %zmm1, %zmm1 ; DQ-NEXT: retq @@ -423,7 +423,7 @@ define <16 x double> @ulto16f64(<16 x i64> %a) { define <16 x i32> @f64to16si(<16 x float> %a) nounwind { ; ALL-LABEL: f64to16si: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttps2dq %zmm0, %zmm0 ; ALL-NEXT: retq %b = fptosi <16 x float> %a to <16 x i32> @@ -432,7 +432,7 @@ define <16 x i32> @f64to16si(<16 x float> %a) nounwind { define <16 x i8> @f32to16sc(<16 x float> %f) { ; ALL-LABEL: f32to16sc: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttps2dq %zmm0, %zmm0 ; ALL-NEXT: vpmovdb %zmm0, %xmm0 ; ALL-NEXT: vzeroupper @@ -443,7 +443,7 @@ define <16 x i8> @f32to16sc(<16 x float> %f) { define <16 x i16> @f32to16ss(<16 x float> %f) { ; ALL-LABEL: f32to16ss: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttps2dq %zmm0, %zmm0 ; ALL-NEXT: vpmovdw %zmm0, %ymm0 ; ALL-NEXT: retq @@ -453,7 +453,7 @@ define <16 x i16> @f32to16ss(<16 x float> %f) { define <16 x i32> @f32to16ui(<16 x float> %a) nounwind { ; ALL-LABEL: f32to16ui: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttps2udq %zmm0, %zmm0 ; ALL-NEXT: retq %b = fptoui <16 x float> %a to <16 x i32> @@ -462,7 +462,7 @@ define <16 x i32> @f32to16ui(<16 x float> %a) nounwind { define <16 x i8> @f32to16uc(<16 x float> %f) { ; ALL-LABEL: f32to16uc: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttps2dq %zmm0, %zmm0 ; ALL-NEXT: vpmovdb %zmm0, %xmm0 ; ALL-NEXT: vzeroupper @@ -473,7 +473,7 @@ define <16 x i8> @f32to16uc(<16 x float> %f) { define <16 x i16> @f32to16us(<16 x float> %f) { ; ALL-LABEL: f32to16us: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttps2dq %zmm0, %zmm0 ; ALL-NEXT: vpmovdw %zmm0, %ymm0 ; ALL-NEXT: retq @@ -483,14 +483,14 @@ define <16 x i16> @f32to16us(<16 x float> %f) { define <8 x i32> @f32to8ui(<8 x float> %a) nounwind { ; NOVL-LABEL: f32to8ui: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; NOVL-NEXT: vcvttps2udq %zmm0, %zmm0 ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<kill> ; NOVL-NEXT: retq ; ; VL-LABEL: f32to8ui: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvttps2udq %ymm0, %ymm0 ; VL-NEXT: retq %b = fptoui <8 x float> %a to <8 x i32> @@ -499,7 +499,7 @@ define <8 x i32> @f32to8ui(<8 x float> %a) nounwind { define <4 x i32> @f32to4ui(<4 x float> %a) nounwind { ; NOVL-LABEL: f32to4ui: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<def> ; NOVL-NEXT: vcvttps2udq %zmm0, %zmm0 ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<kill> @@ -507,7 +507,7 @@ define <4 x i32> @f32to4ui(<4 x float> %a) nounwind { ; NOVL-NEXT: retq ; ; VL-LABEL: f32to4ui: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvttps2udq %xmm0, %xmm0 ; VL-NEXT: retq %b = fptoui <4 x float> %a to <4 x i32> @@ -516,7 +516,7 @@ define <4 x i32> @f32to4ui(<4 x float> %a) nounwind { define <8 x i32> @f64to8ui(<8 x double> %a) nounwind { ; ALL-LABEL: f64to8ui: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttpd2udq %zmm0, %ymm0 ; ALL-NEXT: retq %b = fptoui <8 x double> %a to <8 x i32> @@ -525,7 +525,7 @@ define <8 x i32> @f64to8ui(<8 x double> %a) nounwind { define <8 x i16> @f64to8us(<8 x double> %f) { ; NOVL-LABEL: f64to8us: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vcvttpd2dq %zmm0, %ymm0 ; NOVL-NEXT: vpmovdw %zmm0, %ymm0 ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -533,7 +533,7 @@ define <8 x i16> @f64to8us(<8 x double> %f) { ; NOVL-NEXT: retq ; ; VL-LABEL: f64to8us: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvttpd2dq %zmm0, %ymm0 ; VL-NEXT: vpmovdw %ymm0, %xmm0 ; VL-NEXT: vzeroupper @@ -544,7 +544,7 @@ define <8 x i16> @f64to8us(<8 x double> %f) { define <8 x i8> @f64to8uc(<8 x double> %f) { ; NOVL-LABEL: f64to8uc: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vcvttpd2dq %zmm0, %ymm0 ; NOVL-NEXT: vpmovdw %zmm0, %ymm0 ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -552,7 +552,7 @@ define <8 x i8> @f64to8uc(<8 x double> %f) { ; NOVL-NEXT: retq ; ; VL-LABEL: f64to8uc: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvttpd2dq %zmm0, %ymm0 ; VL-NEXT: vpmovdw %ymm0, %xmm0 ; VL-NEXT: vzeroupper @@ -563,7 +563,7 @@ define <8 x i8> @f64to8uc(<8 x double> %f) { define <4 x i32> @f64to4ui(<4 x double> %a) nounwind { ; NOVL-LABEL: f64to4ui: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; NOVL-NEXT: vcvttpd2udq %zmm0, %ymm0 ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<kill> @@ -571,7 +571,7 @@ define <4 x i32> @f64to4ui(<4 x double> %a) nounwind { ; NOVL-NEXT: retq ; ; VL-LABEL: f64to4ui: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvttpd2udq %ymm0, %xmm0 ; VL-NEXT: vzeroupper ; VL-NEXT: retq @@ -581,7 +581,7 @@ define <4 x i32> @f64to4ui(<4 x double> %a) nounwind { define <8 x double> @sito8f64(<8 x i32> %a) { ; ALL-LABEL: sito8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm0 ; ALL-NEXT: retq %b = sitofp <8 x i32> %a to <8 x double> @@ -589,31 +589,31 @@ define <8 x double> @sito8f64(<8 x i32> %a) { } define <8 x double> @i32to8f64_mask(<8 x double> %a, <8 x i32> %b, i8 %c) nounwind { ; KNL-LABEL: i32to8f64_mask: -; KNL: # BB#0: +; KNL: # %bb.0: ; KNL-NEXT: kmovw %edi, %k1 ; KNL-NEXT: vcvtdq2pd %ymm1, %zmm0 {%k1} ; KNL-NEXT: retq ; ; VLBW-LABEL: i32to8f64_mask: -; VLBW: # BB#0: +; VLBW: # %bb.0: ; VLBW-NEXT: kmovd %edi, %k1 ; VLBW-NEXT: vcvtdq2pd %ymm1, %zmm0 {%k1} ; VLBW-NEXT: retq ; ; VLNOBW-LABEL: i32to8f64_mask: -; VLNOBW: # BB#0: +; VLNOBW: # %bb.0: ; VLNOBW-NEXT: kmovw %edi, %k1 ; VLNOBW-NEXT: vcvtdq2pd %ymm1, %zmm0 {%k1} ; VLNOBW-NEXT: retq ; ; AVX512DQ-LABEL: i32to8f64_mask: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: kmovw %edi, %k1 ; AVX512DQ-NEXT: vcvtdq2pd %ymm1, %zmm0 {%k1} ; AVX512DQ-NEXT: retq ; ; AVX512BW-LABEL: i32to8f64_mask: -; AVX512BW: # BB#0: +; AVX512BW: # %bb.0: ; AVX512BW-NEXT: kmovd %edi, %k1 ; AVX512BW-NEXT: vcvtdq2pd %ymm1, %zmm0 {%k1} ; AVX512BW-NEXT: retq @@ -624,31 +624,31 @@ define <8 x double> @i32to8f64_mask(<8 x double> %a, <8 x i32> %b, i8 %c) nounwi } define <8 x double> @sito8f64_maskz(<8 x i32> %a, i8 %b) nounwind { ; KNL-LABEL: sito8f64_maskz: -; KNL: # BB#0: +; KNL: # %bb.0: ; KNL-NEXT: kmovw %edi, %k1 ; KNL-NEXT: vcvtdq2pd %ymm0, %zmm0 {%k1} {z} ; KNL-NEXT: retq ; ; VLBW-LABEL: sito8f64_maskz: -; VLBW: # BB#0: +; VLBW: # %bb.0: ; VLBW-NEXT: kmovd %edi, %k1 ; VLBW-NEXT: vcvtdq2pd %ymm0, %zmm0 {%k1} {z} ; VLBW-NEXT: retq ; ; VLNOBW-LABEL: sito8f64_maskz: -; VLNOBW: # BB#0: +; VLNOBW: # %bb.0: ; VLNOBW-NEXT: kmovw %edi, %k1 ; VLNOBW-NEXT: vcvtdq2pd %ymm0, %zmm0 {%k1} {z} ; VLNOBW-NEXT: retq ; ; AVX512DQ-LABEL: sito8f64_maskz: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: kmovw %edi, %k1 ; AVX512DQ-NEXT: vcvtdq2pd %ymm0, %zmm0 {%k1} {z} ; AVX512DQ-NEXT: retq ; ; AVX512BW-LABEL: sito8f64_maskz: -; AVX512BW: # BB#0: +; AVX512BW: # %bb.0: ; AVX512BW-NEXT: kmovd %edi, %k1 ; AVX512BW-NEXT: vcvtdq2pd %ymm0, %zmm0 {%k1} {z} ; AVX512BW-NEXT: retq @@ -660,7 +660,7 @@ define <8 x double> @sito8f64_maskz(<8 x i32> %a, i8 %b) nounwind { define <8 x i32> @f64to8si(<8 x double> %a) { ; ALL-LABEL: f64to8si: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttpd2dq %zmm0, %ymm0 ; ALL-NEXT: retq %b = fptosi <8 x double> %a to <8 x i32> @@ -669,7 +669,7 @@ define <8 x i32> @f64to8si(<8 x double> %a) { define <4 x i32> @f64to4si(<4 x double> %a) { ; ALL-LABEL: f64to4si: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttpd2dq %ymm0, %xmm0 ; ALL-NEXT: vzeroupper ; ALL-NEXT: retq @@ -679,7 +679,7 @@ define <4 x i32> @f64to4si(<4 x double> %a) { define <16 x float> @f64to16f32(<16 x double> %b) nounwind { ; ALL-LABEL: f64to16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtpd2ps %zmm0, %ymm0 ; ALL-NEXT: vcvtpd2ps %zmm1, %ymm1 ; ALL-NEXT: vinsertf64x4 $1, %ymm1, %zmm0, %zmm0 @@ -690,7 +690,7 @@ define <16 x float> @f64to16f32(<16 x double> %b) nounwind { define <4 x float> @f64to4f32(<4 x double> %b) { ; ALL-LABEL: f64to4f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtpd2ps %ymm0, %xmm0 ; ALL-NEXT: vzeroupper ; ALL-NEXT: retq @@ -700,7 +700,7 @@ define <4 x float> @f64to4f32(<4 x double> %b) { define <4 x float> @f64to4f32_mask(<4 x double> %b, <4 x i1> %mask) { ; NOVL-LABEL: f64to4f32_mask: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vpslld $31, %xmm1, %xmm1 ; NOVL-NEXT: vpsrad $31, %xmm1, %xmm1 ; NOVL-NEXT: vcvtpd2ps %ymm0, %xmm0 @@ -709,7 +709,7 @@ define <4 x float> @f64to4f32_mask(<4 x double> %b, <4 x i1> %mask) { ; NOVL-NEXT: retq ; ; VL-LABEL: f64to4f32_mask: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpslld $31, %xmm1, %xmm1 ; VL-NEXT: vptestmd %xmm1, %xmm1, %k1 ; VL-NEXT: vcvtpd2ps %ymm0, %xmm0 {%k1} {z} @@ -722,7 +722,7 @@ define <4 x float> @f64to4f32_mask(<4 x double> %b, <4 x i1> %mask) { define <4 x float> @f64tof32_inreg(<2 x double> %a0, <4 x float> %a1) nounwind { ; ALL-LABEL: f64tof32_inreg: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtsd2ss %xmm0, %xmm1, %xmm0 ; ALL-NEXT: retq %ext = extractelement <2 x double> %a0, i32 0 @@ -733,7 +733,7 @@ define <4 x float> @f64tof32_inreg(<2 x double> %a0, <4 x float> %a1) nounwind { define <8 x double> @f32to8f64(<8 x float> %b) nounwind { ; ALL-LABEL: f32to8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtps2pd %ymm0, %zmm0 ; ALL-NEXT: retq %a = fpext <8 x float> %b to <8 x double> @@ -742,14 +742,14 @@ define <8 x double> @f32to8f64(<8 x float> %b) nounwind { define <4 x double> @f32to4f64_mask(<4 x float> %b, <4 x double> %b1, <4 x double> %a1) { ; NOVL-LABEL: f32to4f64_mask: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vcvtps2pd %xmm0, %ymm0 ; NOVL-NEXT: vcmpltpd %ymm2, %ymm1, %ymm1 ; NOVL-NEXT: vandpd %ymm0, %ymm1, %ymm0 ; NOVL-NEXT: retq ; ; VL-LABEL: f32to4f64_mask: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcmpltpd %ymm2, %ymm1, %k1 ; VL-NEXT: vcvtps2pd %xmm0, %ymm0 {%k1} {z} ; VL-NEXT: retq @@ -761,7 +761,7 @@ define <4 x double> @f32to4f64_mask(<4 x float> %b, <4 x double> %b1, <4 x doubl define <2 x double> @f32tof64_inreg(<2 x double> %a0, <4 x float> %a1) nounwind { ; ALL-LABEL: f32tof64_inreg: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtss2sd %xmm1, %xmm0, %xmm0 ; ALL-NEXT: retq %ext = extractelement <4 x float> %a1, i32 0 @@ -772,7 +772,7 @@ define <2 x double> @f32tof64_inreg(<2 x double> %a0, <4 x float> %a1) nounwind define double @sltof64_load(i64* nocapture %e) { ; ALL-LABEL: sltof64_load: -; ALL: # BB#0: # %entry +; ALL: # %bb.0: # %entry ; ALL-NEXT: vcvtsi2sdq (%rdi), %xmm0, %xmm0 ; ALL-NEXT: retq entry: @@ -783,7 +783,7 @@ entry: define double @sitof64_load(i32* %e) { ; ALL-LABEL: sitof64_load: -; ALL: # BB#0: # %entry +; ALL: # %bb.0: # %entry ; ALL-NEXT: vcvtsi2sdl (%rdi), %xmm0, %xmm0 ; ALL-NEXT: retq entry: @@ -794,7 +794,7 @@ entry: define float @sitof32_load(i32* %e) { ; ALL-LABEL: sitof32_load: -; ALL: # BB#0: # %entry +; ALL: # %bb.0: # %entry ; ALL-NEXT: vcvtsi2ssl (%rdi), %xmm0, %xmm0 ; ALL-NEXT: retq entry: @@ -805,7 +805,7 @@ entry: define float @sltof32_load(i64* %e) { ; ALL-LABEL: sltof32_load: -; ALL: # BB#0: # %entry +; ALL: # %bb.0: # %entry ; ALL-NEXT: vcvtsi2ssq (%rdi), %xmm0, %xmm0 ; ALL-NEXT: retq entry: @@ -816,7 +816,7 @@ entry: define void @f32tof64_loadstore() { ; ALL-LABEL: f32tof64_loadstore: -; ALL: # BB#0: # %entry +; ALL: # %bb.0: # %entry ; ALL-NEXT: vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero ; ALL-NEXT: vcvtss2sd %xmm0, %xmm0, %xmm0 ; ALL-NEXT: vmovsd %xmm0, -{{[0-9]+}}(%rsp) @@ -832,7 +832,7 @@ entry: define void @f64tof32_loadstore() nounwind uwtable { ; ALL-LABEL: f64tof32_loadstore: -; ALL: # BB#0: # %entry +; ALL: # %bb.0: # %entry ; ALL-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero ; ALL-NEXT: vcvtsd2ss %xmm0, %xmm0, %xmm0 ; ALL-NEXT: vmovss %xmm0, -{{[0-9]+}}(%rsp) @@ -848,7 +848,7 @@ entry: define double @long_to_double(i64 %x) { ; ALL-LABEL: long_to_double: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vmovq %rdi, %xmm0 ; ALL-NEXT: retq %res = bitcast i64 %x to double @@ -857,7 +857,7 @@ define double @long_to_double(i64 %x) { define i64 @double_to_long(double %x) { ; ALL-LABEL: double_to_long: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vmovq %xmm0, %rax ; ALL-NEXT: retq %res = bitcast double %x to i64 @@ -866,7 +866,7 @@ define i64 @double_to_long(double %x) { define float @int_to_float(i32 %x) { ; ALL-LABEL: int_to_float: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vmovd %edi, %xmm0 ; ALL-NEXT: retq %res = bitcast i32 %x to float @@ -875,7 +875,7 @@ define float @int_to_float(i32 %x) { define i32 @float_to_int(float %x) { ; ALL-LABEL: float_to_int: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vmovd %xmm0, %eax ; ALL-NEXT: retq %res = bitcast float %x to i32 @@ -884,7 +884,7 @@ define i32 @float_to_int(float %x) { define <16 x double> @uito16f64(<16 x i32> %a) nounwind { ; ALL-LABEL: uito16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtudq2pd %ymm0, %zmm2 ; ALL-NEXT: vextractf64x4 $1, %zmm0, %ymm0 ; ALL-NEXT: vcvtudq2pd %ymm0, %zmm1 @@ -896,7 +896,7 @@ define <16 x double> @uito16f64(<16 x i32> %a) nounwind { define <8 x float> @slto8f32(<8 x i64> %a) { ; NODQ-LABEL: slto8f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $2, %zmm0, %xmm1 ; NODQ-NEXT: vpextrq $1, %xmm1, %rax ; NODQ-NEXT: vcvtsi2ssq %rax, %xmm2, %xmm2 @@ -926,7 +926,7 @@ define <8 x float> @slto8f32(<8 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: slto8f32: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtqq2ps %zmm0, %ymm0 ; DQ-NEXT: retq %b = sitofp <8 x i64> %a to <8 x float> @@ -935,7 +935,7 @@ define <8 x float> @slto8f32(<8 x i64> %a) { define <16 x float> @slto16f32(<16 x i64> %a) { ; NODQ-LABEL: slto16f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $2, %zmm1, %xmm2 ; NODQ-NEXT: vpextrq $1, %xmm2, %rax ; NODQ-NEXT: vcvtsi2ssq %rax, %xmm3, %xmm3 @@ -992,7 +992,7 @@ define <16 x float> @slto16f32(<16 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: slto16f32: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtqq2ps %zmm0, %ymm0 ; DQ-NEXT: vcvtqq2ps %zmm1, %ymm1 ; DQ-NEXT: vinsertf64x4 $1, %ymm1, %zmm0, %zmm0 @@ -1003,7 +1003,7 @@ define <16 x float> @slto16f32(<16 x i64> %a) { define <8 x double> @slto8f64(<8 x i64> %a) { ; NODQ-LABEL: slto8f64: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $3, %zmm0, %xmm1 ; NODQ-NEXT: vpextrq $1, %xmm1, %rax ; NODQ-NEXT: vcvtsi2sdq %rax, %xmm2, %xmm2 @@ -1033,7 +1033,7 @@ define <8 x double> @slto8f64(<8 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: slto8f64: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtqq2pd %zmm0, %zmm0 ; DQ-NEXT: retq %b = sitofp <8 x i64> %a to <8 x double> @@ -1042,7 +1042,7 @@ define <8 x double> @slto8f64(<8 x i64> %a) { define <16 x double> @slto16f64(<16 x i64> %a) { ; NODQ-LABEL: slto16f64: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $3, %zmm0, %xmm2 ; NODQ-NEXT: vpextrq $1, %xmm2, %rax ; NODQ-NEXT: vcvtsi2sdq %rax, %xmm3, %xmm3 @@ -1098,7 +1098,7 @@ define <16 x double> @slto16f64(<16 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: slto16f64: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtqq2pd %zmm0, %zmm0 ; DQ-NEXT: vcvtqq2pd %zmm1, %zmm1 ; DQ-NEXT: retq @@ -1108,7 +1108,7 @@ define <16 x double> @slto16f64(<16 x i64> %a) { define <8 x float> @ulto8f32(<8 x i64> %a) { ; NODQ-LABEL: ulto8f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $2, %zmm0, %xmm1 ; NODQ-NEXT: vpextrq $1, %xmm1, %rax ; NODQ-NEXT: vcvtusi2ssq %rax, %xmm2, %xmm2 @@ -1138,7 +1138,7 @@ define <8 x float> @ulto8f32(<8 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: ulto8f32: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtuqq2ps %zmm0, %ymm0 ; DQ-NEXT: retq %b = uitofp <8 x i64> %a to <8 x float> @@ -1147,7 +1147,7 @@ define <8 x float> @ulto8f32(<8 x i64> %a) { define <16 x float> @ulto16f32(<16 x i64> %a) { ; NODQ-LABEL: ulto16f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vextracti32x4 $2, %zmm1, %xmm2 ; NODQ-NEXT: vpextrq $1, %xmm2, %rax ; NODQ-NEXT: vcvtusi2ssq %rax, %xmm3, %xmm3 @@ -1204,7 +1204,7 @@ define <16 x float> @ulto16f32(<16 x i64> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: ulto16f32: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vcvtuqq2ps %zmm0, %ymm0 ; DQ-NEXT: vcvtuqq2ps %zmm1, %ymm1 ; DQ-NEXT: vinsertf64x4 $1, %ymm1, %zmm0, %zmm0 @@ -1215,31 +1215,31 @@ define <16 x float> @ulto16f32(<16 x i64> %a) { define <8 x double> @uito8f64_mask(<8 x double> %a, <8 x i32> %b, i8 %c) nounwind { ; KNL-LABEL: uito8f64_mask: -; KNL: # BB#0: +; KNL: # %bb.0: ; KNL-NEXT: kmovw %edi, %k1 ; KNL-NEXT: vcvtudq2pd %ymm1, %zmm0 {%k1} ; KNL-NEXT: retq ; ; VLBW-LABEL: uito8f64_mask: -; VLBW: # BB#0: +; VLBW: # %bb.0: ; VLBW-NEXT: kmovd %edi, %k1 ; VLBW-NEXT: vcvtudq2pd %ymm1, %zmm0 {%k1} ; VLBW-NEXT: retq ; ; VLNOBW-LABEL: uito8f64_mask: -; VLNOBW: # BB#0: +; VLNOBW: # %bb.0: ; VLNOBW-NEXT: kmovw %edi, %k1 ; VLNOBW-NEXT: vcvtudq2pd %ymm1, %zmm0 {%k1} ; VLNOBW-NEXT: retq ; ; AVX512DQ-LABEL: uito8f64_mask: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: kmovw %edi, %k1 ; AVX512DQ-NEXT: vcvtudq2pd %ymm1, %zmm0 {%k1} ; AVX512DQ-NEXT: retq ; ; AVX512BW-LABEL: uito8f64_mask: -; AVX512BW: # BB#0: +; AVX512BW: # %bb.0: ; AVX512BW-NEXT: kmovd %edi, %k1 ; AVX512BW-NEXT: vcvtudq2pd %ymm1, %zmm0 {%k1} ; AVX512BW-NEXT: retq @@ -1250,31 +1250,31 @@ define <8 x double> @uito8f64_mask(<8 x double> %a, <8 x i32> %b, i8 %c) nounwin } define <8 x double> @uito8f64_maskz(<8 x i32> %a, i8 %b) nounwind { ; KNL-LABEL: uito8f64_maskz: -; KNL: # BB#0: +; KNL: # %bb.0: ; KNL-NEXT: kmovw %edi, %k1 ; KNL-NEXT: vcvtudq2pd %ymm0, %zmm0 {%k1} {z} ; KNL-NEXT: retq ; ; VLBW-LABEL: uito8f64_maskz: -; VLBW: # BB#0: +; VLBW: # %bb.0: ; VLBW-NEXT: kmovd %edi, %k1 ; VLBW-NEXT: vcvtudq2pd %ymm0, %zmm0 {%k1} {z} ; VLBW-NEXT: retq ; ; VLNOBW-LABEL: uito8f64_maskz: -; VLNOBW: # BB#0: +; VLNOBW: # %bb.0: ; VLNOBW-NEXT: kmovw %edi, %k1 ; VLNOBW-NEXT: vcvtudq2pd %ymm0, %zmm0 {%k1} {z} ; VLNOBW-NEXT: retq ; ; AVX512DQ-LABEL: uito8f64_maskz: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: kmovw %edi, %k1 ; AVX512DQ-NEXT: vcvtudq2pd %ymm0, %zmm0 {%k1} {z} ; AVX512DQ-NEXT: retq ; ; AVX512BW-LABEL: uito8f64_maskz: -; AVX512BW: # BB#0: +; AVX512BW: # %bb.0: ; AVX512BW-NEXT: kmovd %edi, %k1 ; AVX512BW-NEXT: vcvtudq2pd %ymm0, %zmm0 {%k1} {z} ; AVX512BW-NEXT: retq @@ -1286,14 +1286,14 @@ define <8 x double> @uito8f64_maskz(<8 x i32> %a, i8 %b) nounwind { define <4 x double> @uito4f64(<4 x i32> %a) nounwind { ; NOVL-LABEL: uito4f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %ymm0<def> ; NOVL-NEXT: vcvtudq2pd %ymm0, %zmm0 ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<kill> ; NOVL-NEXT: retq ; ; VL-LABEL: uito4f64: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvtudq2pd %xmm0, %ymm0 ; VL-NEXT: retq %b = uitofp <4 x i32> %a to <4 x double> @@ -1302,7 +1302,7 @@ define <4 x double> @uito4f64(<4 x i32> %a) nounwind { define <16 x float> @uito16f32(<16 x i32> %a) nounwind { ; ALL-LABEL: uito16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtudq2ps %zmm0, %zmm0 ; ALL-NEXT: retq %b = uitofp <16 x i32> %a to <16 x float> @@ -1311,7 +1311,7 @@ define <16 x float> @uito16f32(<16 x i32> %a) nounwind { define <8 x double> @uito8f64(<8 x i32> %a) { ; ALL-LABEL: uito8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtudq2pd %ymm0, %zmm0 ; ALL-NEXT: retq %b = uitofp <8 x i32> %a to <8 x double> @@ -1320,14 +1320,14 @@ define <8 x double> @uito8f64(<8 x i32> %a) { define <8 x float> @uito8f32(<8 x i32> %a) nounwind { ; NOVL-LABEL: uito8f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; NOVL-NEXT: vcvtudq2ps %zmm0, %zmm0 ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<kill> ; NOVL-NEXT: retq ; ; VL-LABEL: uito8f32: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvtudq2ps %ymm0, %ymm0 ; VL-NEXT: retq %b = uitofp <8 x i32> %a to <8 x float> @@ -1336,7 +1336,7 @@ define <8 x float> @uito8f32(<8 x i32> %a) nounwind { define <4 x float> @uito4f32(<4 x i32> %a) nounwind { ; NOVL-LABEL: uito4f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<def> ; NOVL-NEXT: vcvtudq2ps %zmm0, %zmm0 ; NOVL-NEXT: # kill: %xmm0<def> %xmm0<kill> %zmm0<kill> @@ -1344,7 +1344,7 @@ define <4 x float> @uito4f32(<4 x i32> %a) nounwind { ; NOVL-NEXT: retq ; ; VL-LABEL: uito4f32: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vcvtudq2ps %xmm0, %xmm0 ; VL-NEXT: retq %b = uitofp <4 x i32> %a to <4 x float> @@ -1353,7 +1353,7 @@ define <4 x float> @uito4f32(<4 x i32> %a) nounwind { define i32 @fptosi(float %a) nounwind { ; ALL-LABEL: fptosi: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttss2si %xmm0, %eax ; ALL-NEXT: retq %b = fptosi float %a to i32 @@ -1362,7 +1362,7 @@ define i32 @fptosi(float %a) nounwind { define i32 @fptoui(float %a) nounwind { ; ALL-LABEL: fptoui: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvttss2usi %xmm0, %eax ; ALL-NEXT: retq %b = fptoui float %a to i32 @@ -1371,7 +1371,7 @@ define i32 @fptoui(float %a) nounwind { define float @uitof32(i32 %a) nounwind { ; ALL-LABEL: uitof32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtusi2ssl %edi, %xmm0, %xmm0 ; ALL-NEXT: retq %b = uitofp i32 %a to float @@ -1380,7 +1380,7 @@ define float @uitof32(i32 %a) nounwind { define double @uitof64(i32 %a) nounwind { ; ALL-LABEL: uitof64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtusi2sdl %edi, %xmm0, %xmm0 ; ALL-NEXT: retq %b = uitofp i32 %a to double @@ -1389,7 +1389,7 @@ define double @uitof64(i32 %a) nounwind { define <16 x float> @sbto16f32(<16 x i32> %a) { ; NODQ-LABEL: sbto16f32: -; NODQ: # BB#0: +; NODQ: # %bb.0: ; NODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NODQ-NEXT: vpcmpgtd %zmm0, %zmm1, %k1 ; NODQ-NEXT: vpternlogd $255, %zmm0, %zmm0, %zmm0 {%k1} {z} @@ -1397,7 +1397,7 @@ define <16 x float> @sbto16f32(<16 x i32> %a) { ; NODQ-NEXT: retq ; ; DQ-LABEL: sbto16f32: -; DQ: # BB#0: +; DQ: # %bb.0: ; DQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; DQ-NEXT: vpcmpgtd %zmm0, %zmm1, %k0 ; DQ-NEXT: vpmovm2d %k0, %zmm0 @@ -1410,7 +1410,7 @@ define <16 x float> @sbto16f32(<16 x i32> %a) { define <16 x float> @scto16f32(<16 x i8> %a) { ; ALL-LABEL: scto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxbd %xmm0, %zmm0 ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq @@ -1420,7 +1420,7 @@ define <16 x float> @scto16f32(<16 x i8> %a) { define <16 x float> @ssto16f32(<16 x i16> %a) { ; ALL-LABEL: ssto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxwd %ymm0, %zmm0 ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq @@ -1430,7 +1430,7 @@ define <16 x float> @ssto16f32(<16 x i16> %a) { define <8 x double> @ssto16f64(<8 x i16> %a) { ; ALL-LABEL: ssto16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxwd %xmm0, %ymm0 ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm0 ; ALL-NEXT: retq @@ -1440,7 +1440,7 @@ define <8 x double> @ssto16f64(<8 x i16> %a) { define <8 x double> @scto8f64(<8 x i8> %a) { ; ALL-LABEL: scto8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxwd {{.*#+}} ymm0 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero ; ALL-NEXT: vpslld $24, %ymm0, %ymm0 ; ALL-NEXT: vpsrad $24, %ymm0, %ymm0 @@ -1452,7 +1452,7 @@ define <8 x double> @scto8f64(<8 x i8> %a) { define <16 x double> @scto16f64(<16 x i8> %a) { ; ALL-LABEL: scto16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxbd %xmm0, %zmm1 ; ALL-NEXT: vcvtdq2pd %ymm1, %zmm0 ; ALL-NEXT: vextracti64x4 $1, %zmm1, %ymm1 @@ -1464,7 +1464,7 @@ define <16 x double> @scto16f64(<16 x i8> %a) { define <16 x double> @sbto16f64(<16 x double> %a) { ; NOVLDQ-LABEL: sbto16f64: -; NOVLDQ: # BB#0: +; NOVLDQ: # %bb.0: ; NOVLDQ-NEXT: vxorpd %xmm2, %xmm2, %xmm2 ; NOVLDQ-NEXT: vcmpltpd %zmm1, %zmm2, %k1 ; NOVLDQ-NEXT: vcmpltpd %zmm0, %zmm2, %k2 @@ -1477,7 +1477,7 @@ define <16 x double> @sbto16f64(<16 x double> %a) { ; NOVLDQ-NEXT: retq ; ; VLDQ-LABEL: sbto16f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorpd %xmm2, %xmm2, %xmm2 ; VLDQ-NEXT: vcmpltpd %zmm1, %zmm2, %k0 ; VLDQ-NEXT: vcmpltpd %zmm0, %zmm2, %k1 @@ -1488,7 +1488,7 @@ define <16 x double> @sbto16f64(<16 x double> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto16f64: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm2, %xmm2, %xmm2 ; VLNODQ-NEXT: vcmpltpd %zmm1, %zmm2, %k1 ; VLNODQ-NEXT: vcmpltpd %zmm0, %zmm2, %k2 @@ -1500,7 +1500,7 @@ define <16 x double> @sbto16f64(<16 x double> %a) { ; VLNODQ-NEXT: retq ; ; AVX512DQ-LABEL: sbto16f64: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: vxorpd %xmm2, %xmm2, %xmm2 ; AVX512DQ-NEXT: vcmpltpd %zmm1, %zmm2, %k0 ; AVX512DQ-NEXT: vcmpltpd %zmm0, %zmm2, %k1 @@ -1516,7 +1516,7 @@ define <16 x double> @sbto16f64(<16 x double> %a) { define <8 x double> @sbto8f64(<8 x double> %a) { ; NOVLDQ-LABEL: sbto8f64: -; NOVLDQ: # BB#0: +; NOVLDQ: # %bb.0: ; NOVLDQ-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; NOVLDQ-NEXT: vcmpltpd %zmm0, %zmm1, %k1 ; NOVLDQ-NEXT: vpternlogq $255, %zmm0, %zmm0, %zmm0 {%k1} {z} @@ -1525,7 +1525,7 @@ define <8 x double> @sbto8f64(<8 x double> %a) { ; NOVLDQ-NEXT: retq ; ; VLDQ-LABEL: sbto8f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vcmpltpd %zmm0, %zmm1, %k0 ; VLDQ-NEXT: vpmovm2d %k0, %ymm0 @@ -1533,7 +1533,7 @@ define <8 x double> @sbto8f64(<8 x double> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto8f64: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vcmpltpd %zmm0, %zmm1, %k1 ; VLNODQ-NEXT: vpcmpeqd %ymm0, %ymm0, %ymm0 @@ -1542,7 +1542,7 @@ define <8 x double> @sbto8f64(<8 x double> %a) { ; VLNODQ-NEXT: retq ; ; AVX512DQ-LABEL: sbto8f64: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; AVX512DQ-NEXT: vcmpltpd %zmm0, %zmm1, %k0 ; AVX512DQ-NEXT: vpmovm2d %k0, %zmm0 @@ -1555,7 +1555,7 @@ define <8 x double> @sbto8f64(<8 x double> %a) { define <8 x float> @sbto8f32(<8 x float> %a) { ; NOVLDQ-LABEL: sbto8f32: -; NOVLDQ: # BB#0: +; NOVLDQ: # %bb.0: ; NOVLDQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; NOVLDQ-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; NOVLDQ-NEXT: vcmpltps %zmm0, %zmm1, %k1 @@ -1565,7 +1565,7 @@ define <8 x float> @sbto8f32(<8 x float> %a) { ; NOVLDQ-NEXT: retq ; ; VLDQ-LABEL: sbto8f32: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vcmpltps %ymm0, %ymm1, %k0 ; VLDQ-NEXT: vpmovm2d %k0, %ymm0 @@ -1573,7 +1573,7 @@ define <8 x float> @sbto8f32(<8 x float> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto8f32: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vcmpltps %ymm0, %ymm1, %k1 ; VLNODQ-NEXT: vpcmpeqd %ymm0, %ymm0, %ymm0 @@ -1582,7 +1582,7 @@ define <8 x float> @sbto8f32(<8 x float> %a) { ; VLNODQ-NEXT: retq ; ; AVX512DQ-LABEL: sbto8f32: -; AVX512DQ: # BB#0: +; AVX512DQ: # %bb.0: ; AVX512DQ-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; AVX512DQ-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; AVX512DQ-NEXT: vcmpltps %zmm0, %zmm1, %k0 @@ -1596,14 +1596,14 @@ define <8 x float> @sbto8f32(<8 x float> %a) { define <4 x float> @sbto4f32(<4 x float> %a) { ; NOVL-LABEL: sbto4f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vcmpltps %xmm0, %xmm1, %xmm0 ; NOVL-NEXT: vcvtdq2ps %xmm0, %xmm0 ; NOVL-NEXT: retq ; ; VLDQ-LABEL: sbto4f32: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vcmpltps %xmm0, %xmm1, %k0 ; VLDQ-NEXT: vpmovm2d %k0, %xmm0 @@ -1611,7 +1611,7 @@ define <4 x float> @sbto4f32(<4 x float> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto4f32: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vcmpltps %xmm0, %xmm1, %k1 ; VLNODQ-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 @@ -1625,7 +1625,7 @@ define <4 x float> @sbto4f32(<4 x float> %a) { define <4 x double> @sbto4f64(<4 x double> %a) { ; NOVL-LABEL: sbto4f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vcmpltpd %ymm0, %ymm1, %ymm0 ; NOVL-NEXT: vpmovqd %zmm0, %ymm0 @@ -1633,7 +1633,7 @@ define <4 x double> @sbto4f64(<4 x double> %a) { ; NOVL-NEXT: retq ; ; VLDQ-LABEL: sbto4f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vcmpltpd %ymm0, %ymm1, %k0 ; VLDQ-NEXT: vpmovm2d %k0, %xmm0 @@ -1641,7 +1641,7 @@ define <4 x double> @sbto4f64(<4 x double> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto4f64: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vcmpltpd %ymm0, %ymm1, %k1 ; VLNODQ-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 @@ -1655,14 +1655,14 @@ define <4 x double> @sbto4f64(<4 x double> %a) { define <2 x float> @sbto2f32(<2 x float> %a) { ; NOVL-LABEL: sbto2f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vcmpltps %xmm0, %xmm1, %xmm0 ; NOVL-NEXT: vcvtdq2ps %xmm0, %xmm0 ; NOVL-NEXT: retq ; ; VLDQ-LABEL: sbto2f32: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorps %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vcmpltps %xmm0, %xmm1, %k0 ; VLDQ-NEXT: vpmovm2d %k0, %xmm0 @@ -1670,7 +1670,7 @@ define <2 x float> @sbto2f32(<2 x float> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto2f32: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vcmpltps %xmm0, %xmm1, %k1 ; VLNODQ-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 @@ -1684,7 +1684,7 @@ define <2 x float> @sbto2f32(<2 x float> %a) { define <2 x double> @sbto2f64(<2 x double> %a) { ; NOVL-LABEL: sbto2f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vcmpltpd %xmm0, %xmm1, %xmm0 ; NOVL-NEXT: vpermilps {{.*#+}} xmm0 = xmm0[0,2,2,3] @@ -1692,7 +1692,7 @@ define <2 x double> @sbto2f64(<2 x double> %a) { ; NOVL-NEXT: retq ; ; VLDQ-LABEL: sbto2f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vxorpd %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vcmpltpd %xmm0, %xmm1, %k0 ; VLDQ-NEXT: vpmovm2q %k0, %xmm0 @@ -1700,7 +1700,7 @@ define <2 x double> @sbto2f64(<2 x double> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: sbto2f64: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vcmpltpd %xmm0, %xmm1, %k1 ; VLNODQ-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 @@ -1718,7 +1718,7 @@ define <2 x double> @sbto2f64(<2 x double> %a) { define <16 x float> @ucto16f32(<16 x i8> %a) { ; ALL-LABEL: ucto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxbd {{.*#+}} zmm0 = xmm0[0],zero,zero,zero,xmm0[1],zero,zero,zero,xmm0[2],zero,zero,zero,xmm0[3],zero,zero,zero,xmm0[4],zero,zero,zero,xmm0[5],zero,zero,zero,xmm0[6],zero,zero,zero,xmm0[7],zero,zero,zero,xmm0[8],zero,zero,zero,xmm0[9],zero,zero,zero,xmm0[10],zero,zero,zero,xmm0[11],zero,zero,zero,xmm0[12],zero,zero,zero,xmm0[13],zero,zero,zero,xmm0[14],zero,zero,zero,xmm0[15],zero,zero,zero ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq @@ -1728,7 +1728,7 @@ define <16 x float> @ucto16f32(<16 x i8> %a) { define <8 x double> @ucto8f64(<8 x i8> %a) { ; ALL-LABEL: ucto8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0 ; ALL-NEXT: vpmovzxwd {{.*#+}} ymm0 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm0 @@ -1739,7 +1739,7 @@ define <8 x double> @ucto8f64(<8 x i8> %a) { define <16 x float> @swto16f32(<16 x i16> %a) { ; ALL-LABEL: swto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxwd %ymm0, %zmm0 ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq @@ -1749,7 +1749,7 @@ define <16 x float> @swto16f32(<16 x i16> %a) { define <8 x double> @swto8f64(<8 x i16> %a) { ; ALL-LABEL: swto8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxwd %xmm0, %ymm0 ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm0 ; ALL-NEXT: retq @@ -1759,7 +1759,7 @@ define <8 x double> @swto8f64(<8 x i16> %a) { define <16 x double> @swto16f64(<16 x i16> %a) { ; ALL-LABEL: swto16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovsxwd %ymm0, %zmm1 ; ALL-NEXT: vcvtdq2pd %ymm1, %zmm0 ; ALL-NEXT: vextracti64x4 $1, %zmm1, %ymm1 @@ -1771,7 +1771,7 @@ define <16 x double> @swto16f64(<16 x i16> %a) { define <16 x double> @ucto16f64(<16 x i8> %a) { ; ALL-LABEL: ucto16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxbd {{.*#+}} zmm1 = xmm0[0],zero,zero,zero,xmm0[1],zero,zero,zero,xmm0[2],zero,zero,zero,xmm0[3],zero,zero,zero,xmm0[4],zero,zero,zero,xmm0[5],zero,zero,zero,xmm0[6],zero,zero,zero,xmm0[7],zero,zero,zero,xmm0[8],zero,zero,zero,xmm0[9],zero,zero,zero,xmm0[10],zero,zero,zero,xmm0[11],zero,zero,zero,xmm0[12],zero,zero,zero,xmm0[13],zero,zero,zero,xmm0[14],zero,zero,zero,xmm0[15],zero,zero,zero ; ALL-NEXT: vcvtdq2pd %ymm1, %zmm0 ; ALL-NEXT: vextracti64x4 $1, %zmm1, %ymm1 @@ -1783,7 +1783,7 @@ define <16 x double> @ucto16f64(<16 x i8> %a) { define <16 x float> @uwto16f32(<16 x i16> %a) { ; ALL-LABEL: uwto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxwd {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq @@ -1793,7 +1793,7 @@ define <16 x float> @uwto16f32(<16 x i16> %a) { define <8 x double> @uwto8f64(<8 x i16> %a) { ; ALL-LABEL: uwto8f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxwd {{.*#+}} ymm0 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm0 ; ALL-NEXT: retq @@ -1803,7 +1803,7 @@ define <8 x double> @uwto8f64(<8 x i16> %a) { define <16 x double> @uwto16f64(<16 x i16> %a) { ; ALL-LABEL: uwto16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxwd {{.*#+}} zmm1 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero ; ALL-NEXT: vcvtdq2pd %ymm1, %zmm0 ; ALL-NEXT: vextracti64x4 $1, %zmm1, %ymm1 @@ -1815,7 +1815,7 @@ define <16 x double> @uwto16f64(<16 x i16> %a) { define <16 x float> @sito16f32(<16 x i32> %a) { ; ALL-LABEL: sito16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq %b = sitofp <16 x i32> %a to <16 x float> @@ -1824,7 +1824,7 @@ define <16 x float> @sito16f32(<16 x i32> %a) { define <16 x double> @sito16f64(<16 x i32> %a) { ; ALL-LABEL: sito16f64: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm2 ; ALL-NEXT: vextractf64x4 $1, %zmm0, %ymm0 ; ALL-NEXT: vcvtdq2pd %ymm0, %zmm1 @@ -1836,7 +1836,7 @@ define <16 x double> @sito16f64(<16 x i32> %a) { define <16 x float> @usto16f32(<16 x i16> %a) { ; ALL-LABEL: usto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpmovzxwd {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero ; ALL-NEXT: vcvtdq2ps %zmm0, %zmm0 ; ALL-NEXT: retq @@ -1846,7 +1846,7 @@ define <16 x float> @usto16f32(<16 x i16> %a) { define <16 x float> @ubto16f32(<16 x i32> %a) { ; ALL-LABEL: ubto16f32: -; ALL: # BB#0: +; ALL: # %bb.0: ; ALL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; ALL-NEXT: vpcmpgtd %zmm0, %zmm1, %k1 ; ALL-NEXT: vpbroadcastd {{.*}}(%rip), %zmm0 {%k1} {z} @@ -1859,7 +1859,7 @@ define <16 x float> @ubto16f32(<16 x i32> %a) { define <16 x double> @ubto16f64(<16 x i32> %a) { ; NOVL-LABEL: ubto16f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpcmpgtd %zmm0, %zmm1, %k1 ; NOVL-NEXT: movq {{.*}}(%rip), %rax @@ -1873,7 +1873,7 @@ define <16 x double> @ubto16f64(<16 x i32> %a) { ; NOVL-NEXT: retq ; ; VL-LABEL: ubto16f64: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VL-NEXT: vpcmpgtd %zmm0, %zmm1, %k1 ; VL-NEXT: movl {{.*}}(%rip), %eax @@ -1890,7 +1890,7 @@ define <16 x double> @ubto16f64(<16 x i32> %a) { define <8 x float> @ubto8f32(<8 x i32> %a) { ; NOVL-LABEL: ubto8f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpcmpgtd %zmm0, %zmm1, %k1 @@ -1901,7 +1901,7 @@ define <8 x float> @ubto8f32(<8 x i32> %a) { ; NOVL-NEXT: retq ; ; VL-LABEL: ubto8f32: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VL-NEXT: vpcmpgtd %ymm0, %ymm1, %k1 ; VL-NEXT: vpbroadcastd {{.*}}(%rip), %ymm0 {%k1} {z} @@ -1914,7 +1914,7 @@ define <8 x float> @ubto8f32(<8 x i32> %a) { define <8 x double> @ubto8f64(<8 x i32> %a) { ; NOVL-LABEL: ubto8f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: # kill: %ymm0<def> %ymm0<kill> %zmm0<def> ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpcmpgtd %zmm0, %zmm1, %k1 @@ -1924,7 +1924,7 @@ define <8 x double> @ubto8f64(<8 x i32> %a) { ; NOVL-NEXT: retq ; ; VL-LABEL: ubto8f64: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VL-NEXT: vpcmpgtd %ymm0, %ymm1, %k1 ; VL-NEXT: vpbroadcastd {{.*}}(%rip), %ymm0 {%k1} {z} @@ -1937,7 +1937,7 @@ define <8 x double> @ubto8f64(<8 x i32> %a) { define <4 x float> @ubto4f32(<4 x i32> %a) { ; NOVL-LABEL: ubto4f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpcmpgtd %xmm0, %xmm1, %xmm0 ; NOVL-NEXT: vpbroadcastd {{.*#+}} xmm1 = [1,1,1,1] @@ -1945,7 +1945,7 @@ define <4 x float> @ubto4f32(<4 x i32> %a) { ; NOVL-NEXT: retq ; ; VL-LABEL: ubto4f32: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VL-NEXT: vpcmpgtd %xmm0, %xmm1, %k1 ; VL-NEXT: vpbroadcastd {{.*}}(%rip), %xmm0 {%k1} {z} @@ -1958,7 +1958,7 @@ define <4 x float> @ubto4f32(<4 x i32> %a) { define <4 x double> @ubto4f64(<4 x i32> %a) { ; NOVL-LABEL: ubto4f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpcmpgtd %xmm0, %xmm1, %xmm0 ; NOVL-NEXT: vpsrld $31, %xmm0, %xmm0 @@ -1966,7 +1966,7 @@ define <4 x double> @ubto4f64(<4 x i32> %a) { ; NOVL-NEXT: retq ; ; VL-LABEL: ubto4f64: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VL-NEXT: vpcmpgtd %xmm0, %xmm1, %k1 ; VL-NEXT: vpbroadcastd {{.*}}(%rip), %xmm0 {%k1} {z} @@ -1979,7 +1979,7 @@ define <4 x double> @ubto4f64(<4 x i32> %a) { define <2 x float> @ubto2f32(<2 x i32> %a) { ; NOVL-LABEL: ubto2f32: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0],xmm1[1],xmm0[2],xmm1[3] ; NOVL-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm0 @@ -1993,7 +1993,7 @@ define <2 x float> @ubto2f32(<2 x i32> %a) { ; NOVL-NEXT: retq ; ; VL-LABEL: ubto2f32: -; VL: # BB#0: +; VL: # %bb.0: ; VL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VL-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0],xmm1[1],xmm0[2],xmm1[3] ; VL-NEXT: vpcmpltuq %xmm1, %xmm0, %k1 @@ -2007,7 +2007,7 @@ define <2 x float> @ubto2f32(<2 x i32> %a) { define <2 x double> @ubto2f64(<2 x i32> %a) { ; NOVL-LABEL: ubto2f64: -; NOVL: # BB#0: +; NOVL: # %bb.0: ; NOVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; NOVL-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0],xmm1[1],xmm0[2],xmm1[3] ; NOVL-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm0 @@ -2015,7 +2015,7 @@ define <2 x double> @ubto2f64(<2 x i32> %a) { ; NOVL-NEXT: retq ; ; VLDQ-LABEL: ubto2f64: -; VLDQ: # BB#0: +; VLDQ: # %bb.0: ; VLDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLDQ-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0],xmm1[1],xmm0[2],xmm1[3] ; VLDQ-NEXT: vpcmpltuq %xmm1, %xmm0, %k1 @@ -2024,7 +2024,7 @@ define <2 x double> @ubto2f64(<2 x i32> %a) { ; VLDQ-NEXT: retq ; ; VLNODQ-LABEL: ubto2f64: -; VLNODQ: # BB#0: +; VLNODQ: # %bb.0: ; VLNODQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; VLNODQ-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0],xmm1[1],xmm0[2],xmm1[3] ; VLNODQ-NEXT: vpcmpltuq %xmm1, %xmm0, %k1 |