Mercurial > hg > CbC > CbC_llvm
comparison test/CodeGen/ARM/vmls.ll @ 0:95c75e76d11b LLVM3.4
LLVM 3.4
author | Kaito Tokumori <e105711@ie.u-ryukyu.ac.jp> |
---|---|
date | Thu, 12 Dec 2013 13:56:28 +0900 |
parents | |
children | 54457678186b |
comparison
equal
deleted
inserted
replaced
-1:000000000000 | 0:95c75e76d11b |
---|---|
1 ; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s | |
2 | |
3 define <8 x i8> @vmlsi8(<8 x i8>* %A, <8 x i8>* %B, <8 x i8> * %C) nounwind { | |
4 ;CHECK-LABEL: vmlsi8: | |
5 ;CHECK: vmls.i8 | |
6 %tmp1 = load <8 x i8>* %A | |
7 %tmp2 = load <8 x i8>* %B | |
8 %tmp3 = load <8 x i8>* %C | |
9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 | |
10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 | |
11 ret <8 x i8> %tmp5 | |
12 } | |
13 | |
14 define <4 x i16> @vmlsi16(<4 x i16>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind { | |
15 ;CHECK-LABEL: vmlsi16: | |
16 ;CHECK: vmls.i16 | |
17 %tmp1 = load <4 x i16>* %A | |
18 %tmp2 = load <4 x i16>* %B | |
19 %tmp3 = load <4 x i16>* %C | |
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 | |
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 | |
22 ret <4 x i16> %tmp5 | |
23 } | |
24 | |
25 define <2 x i32> @vmlsi32(<2 x i32>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind { | |
26 ;CHECK-LABEL: vmlsi32: | |
27 ;CHECK: vmls.i32 | |
28 %tmp1 = load <2 x i32>* %A | |
29 %tmp2 = load <2 x i32>* %B | |
30 %tmp3 = load <2 x i32>* %C | |
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 | |
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 | |
33 ret <2 x i32> %tmp5 | |
34 } | |
35 | |
36 define <2 x float> @vmlsf32(<2 x float>* %A, <2 x float>* %B, <2 x float>* %C) nounwind { | |
37 ;CHECK-LABEL: vmlsf32: | |
38 ;CHECK: vmls.f32 | |
39 %tmp1 = load <2 x float>* %A | |
40 %tmp2 = load <2 x float>* %B | |
41 %tmp3 = load <2 x float>* %C | |
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 | |
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 | |
44 ret <2 x float> %tmp5 | |
45 } | |
46 | |
47 define <16 x i8> @vmlsQi8(<16 x i8>* %A, <16 x i8>* %B, <16 x i8> * %C) nounwind { | |
48 ;CHECK-LABEL: vmlsQi8: | |
49 ;CHECK: vmls.i8 | |
50 %tmp1 = load <16 x i8>* %A | |
51 %tmp2 = load <16 x i8>* %B | |
52 %tmp3 = load <16 x i8>* %C | |
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 | |
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 | |
55 ret <16 x i8> %tmp5 | |
56 } | |
57 | |
58 define <8 x i16> @vmlsQi16(<8 x i16>* %A, <8 x i16>* %B, <8 x i16>* %C) nounwind { | |
59 ;CHECK-LABEL: vmlsQi16: | |
60 ;CHECK: vmls.i16 | |
61 %tmp1 = load <8 x i16>* %A | |
62 %tmp2 = load <8 x i16>* %B | |
63 %tmp3 = load <8 x i16>* %C | |
64 %tmp4 = mul <8 x i16> %tmp2, %tmp3 | |
65 %tmp5 = sub <8 x i16> %tmp1, %tmp4 | |
66 ret <8 x i16> %tmp5 | |
67 } | |
68 | |
69 define <4 x i32> @vmlsQi32(<4 x i32>* %A, <4 x i32>* %B, <4 x i32>* %C) nounwind { | |
70 ;CHECK-LABEL: vmlsQi32: | |
71 ;CHECK: vmls.i32 | |
72 %tmp1 = load <4 x i32>* %A | |
73 %tmp2 = load <4 x i32>* %B | |
74 %tmp3 = load <4 x i32>* %C | |
75 %tmp4 = mul <4 x i32> %tmp2, %tmp3 | |
76 %tmp5 = sub <4 x i32> %tmp1, %tmp4 | |
77 ret <4 x i32> %tmp5 | |
78 } | |
79 | |
80 define <4 x float> @vmlsQf32(<4 x float>* %A, <4 x float>* %B, <4 x float>* %C) nounwind { | |
81 ;CHECK-LABEL: vmlsQf32: | |
82 ;CHECK: vmls.f32 | |
83 %tmp1 = load <4 x float>* %A | |
84 %tmp2 = load <4 x float>* %B | |
85 %tmp3 = load <4 x float>* %C | |
86 %tmp4 = fmul <4 x float> %tmp2, %tmp3 | |
87 %tmp5 = fsub <4 x float> %tmp1, %tmp4 | |
88 ret <4 x float> %tmp5 | |
89 } | |
90 | |
91 define <8 x i16> @vmlsls8(<8 x i16>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind { | |
92 ;CHECK-LABEL: vmlsls8: | |
93 ;CHECK: vmlsl.s8 | |
94 %tmp1 = load <8 x i16>* %A | |
95 %tmp2 = load <8 x i8>* %B | |
96 %tmp3 = load <8 x i8>* %C | |
97 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> | |
98 %tmp5 = sext <8 x i8> %tmp3 to <8 x i16> | |
99 %tmp6 = mul <8 x i16> %tmp4, %tmp5 | |
100 %tmp7 = sub <8 x i16> %tmp1, %tmp6 | |
101 ret <8 x i16> %tmp7 | |
102 } | |
103 | |
104 define <4 x i32> @vmlsls16(<4 x i32>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind { | |
105 ;CHECK-LABEL: vmlsls16: | |
106 ;CHECK: vmlsl.s16 | |
107 %tmp1 = load <4 x i32>* %A | |
108 %tmp2 = load <4 x i16>* %B | |
109 %tmp3 = load <4 x i16>* %C | |
110 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> | |
111 %tmp5 = sext <4 x i16> %tmp3 to <4 x i32> | |
112 %tmp6 = mul <4 x i32> %tmp4, %tmp5 | |
113 %tmp7 = sub <4 x i32> %tmp1, %tmp6 | |
114 ret <4 x i32> %tmp7 | |
115 } | |
116 | |
117 define <2 x i64> @vmlsls32(<2 x i64>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind { | |
118 ;CHECK-LABEL: vmlsls32: | |
119 ;CHECK: vmlsl.s32 | |
120 %tmp1 = load <2 x i64>* %A | |
121 %tmp2 = load <2 x i32>* %B | |
122 %tmp3 = load <2 x i32>* %C | |
123 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> | |
124 %tmp5 = sext <2 x i32> %tmp3 to <2 x i64> | |
125 %tmp6 = mul <2 x i64> %tmp4, %tmp5 | |
126 %tmp7 = sub <2 x i64> %tmp1, %tmp6 | |
127 ret <2 x i64> %tmp7 | |
128 } | |
129 | |
130 define <8 x i16> @vmlslu8(<8 x i16>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind { | |
131 ;CHECK-LABEL: vmlslu8: | |
132 ;CHECK: vmlsl.u8 | |
133 %tmp1 = load <8 x i16>* %A | |
134 %tmp2 = load <8 x i8>* %B | |
135 %tmp3 = load <8 x i8>* %C | |
136 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> | |
137 %tmp5 = zext <8 x i8> %tmp3 to <8 x i16> | |
138 %tmp6 = mul <8 x i16> %tmp4, %tmp5 | |
139 %tmp7 = sub <8 x i16> %tmp1, %tmp6 | |
140 ret <8 x i16> %tmp7 | |
141 } | |
142 | |
143 define <4 x i32> @vmlslu16(<4 x i32>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind { | |
144 ;CHECK-LABEL: vmlslu16: | |
145 ;CHECK: vmlsl.u16 | |
146 %tmp1 = load <4 x i32>* %A | |
147 %tmp2 = load <4 x i16>* %B | |
148 %tmp3 = load <4 x i16>* %C | |
149 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> | |
150 %tmp5 = zext <4 x i16> %tmp3 to <4 x i32> | |
151 %tmp6 = mul <4 x i32> %tmp4, %tmp5 | |
152 %tmp7 = sub <4 x i32> %tmp1, %tmp6 | |
153 ret <4 x i32> %tmp7 | |
154 } | |
155 | |
156 define <2 x i64> @vmlslu32(<2 x i64>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind { | |
157 ;CHECK-LABEL: vmlslu32: | |
158 ;CHECK: vmlsl.u32 | |
159 %tmp1 = load <2 x i64>* %A | |
160 %tmp2 = load <2 x i32>* %B | |
161 %tmp3 = load <2 x i32>* %C | |
162 %tmp4 = zext <2 x i32> %tmp2 to <2 x i64> | |
163 %tmp5 = zext <2 x i32> %tmp3 to <2 x i64> | |
164 %tmp6 = mul <2 x i64> %tmp4, %tmp5 | |
165 %tmp7 = sub <2 x i64> %tmp1, %tmp6 | |
166 ret <2 x i64> %tmp7 | |
167 } | |
168 | |
169 define arm_aapcs_vfpcc <4 x i32> @test_vmlsl_lanes16(<4 x i32> %arg0_int32x4_t, <4 x i16> %arg1_int16x4_t, <4 x i16> %arg2_int16x4_t) nounwind readnone { | |
170 entry: | |
171 ; CHECK: test_vmlsl_lanes16 | |
172 ; CHECK: vmlsl.s16 q0, d2, d3[1] | |
173 %0 = shufflevector <4 x i16> %arg2_int16x4_t, <4 x i16> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1> ; <<4 x i16>> [#uses=1] | |
174 %1 = sext <4 x i16> %arg1_int16x4_t to <4 x i32> | |
175 %2 = sext <4 x i16> %0 to <4 x i32> | |
176 %3 = mul <4 x i32> %1, %2 | |
177 %4 = sub <4 x i32> %arg0_int32x4_t, %3 | |
178 ret <4 x i32> %4 | |
179 } | |
180 | |
181 define arm_aapcs_vfpcc <2 x i64> @test_vmlsl_lanes32(<2 x i64> %arg0_int64x2_t, <2 x i32> %arg1_int32x2_t, <2 x i32> %arg2_int32x2_t) nounwind readnone { | |
182 entry: | |
183 ; CHECK: test_vmlsl_lanes32 | |
184 ; CHECK: vmlsl.s32 q0, d2, d3[1] | |
185 %0 = shufflevector <2 x i32> %arg2_int32x2_t, <2 x i32> undef, <2 x i32> <i32 1, i32 1> ; <<2 x i32>> [#uses=1] | |
186 %1 = sext <2 x i32> %arg1_int32x2_t to <2 x i64> | |
187 %2 = sext <2 x i32> %0 to <2 x i64> | |
188 %3 = mul <2 x i64> %1, %2 | |
189 %4 = sub <2 x i64> %arg0_int64x2_t, %3 | |
190 ret <2 x i64> %4 | |
191 } | |
192 | |
193 define arm_aapcs_vfpcc <4 x i32> @test_vmlsl_laneu16(<4 x i32> %arg0_uint32x4_t, <4 x i16> %arg1_uint16x4_t, <4 x i16> %arg2_uint16x4_t) nounwind readnone { | |
194 entry: | |
195 ; CHECK: test_vmlsl_laneu16 | |
196 ; CHECK: vmlsl.u16 q0, d2, d3[1] | |
197 %0 = shufflevector <4 x i16> %arg2_uint16x4_t, <4 x i16> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1> ; <<4 x i16>> [#uses=1] | |
198 %1 = zext <4 x i16> %arg1_uint16x4_t to <4 x i32> | |
199 %2 = zext <4 x i16> %0 to <4 x i32> | |
200 %3 = mul <4 x i32> %1, %2 | |
201 %4 = sub <4 x i32> %arg0_uint32x4_t, %3 | |
202 ret <4 x i32> %4 | |
203 } | |
204 | |
205 define arm_aapcs_vfpcc <2 x i64> @test_vmlsl_laneu32(<2 x i64> %arg0_uint64x2_t, <2 x i32> %arg1_uint32x2_t, <2 x i32> %arg2_uint32x2_t) nounwind readnone { | |
206 entry: | |
207 ; CHECK: test_vmlsl_laneu32 | |
208 ; CHECK: vmlsl.u32 q0, d2, d3[1] | |
209 %0 = shufflevector <2 x i32> %arg2_uint32x2_t, <2 x i32> undef, <2 x i32> <i32 1, i32 1> ; <<2 x i32>> [#uses=1] | |
210 %1 = zext <2 x i32> %arg1_uint32x2_t to <2 x i64> | |
211 %2 = zext <2 x i32> %0 to <2 x i64> | |
212 %3 = mul <2 x i64> %1, %2 | |
213 %4 = sub <2 x i64> %arg0_uint64x2_t, %3 | |
214 ret <2 x i64> %4 | |
215 } |