@@ -25,8 +25,8 @@ define void @vselect_vv_v6i32(ptr %a, ptr %b, ptr %cc, ptr %z) {
25
25
; RV32-NEXT: vslide1down.vx v10, v10, a1
26
26
; RV32-NEXT: vslide1down.vx v10, v10, a4
27
27
; RV32-NEXT: vslide1down.vx v10, v10, a2
28
- ; RV32-NEXT: vslidedown.vi v10, v10, 2
29
28
; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
29
+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
30
30
; RV32-NEXT: vand.vi v10, v10, 1
31
31
; RV32-NEXT: vmsne.vi v0, v10, 0
32
32
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -56,8 +56,8 @@ define void @vselect_vv_v6i32(ptr %a, ptr %b, ptr %cc, ptr %z) {
56
56
; RV64-NEXT: vslide1down.vx v10, v10, a1
57
57
; RV64-NEXT: vslide1down.vx v10, v10, a4
58
58
; RV64-NEXT: vslide1down.vx v10, v10, a2
59
- ; RV64-NEXT: vslidedown.vi v10, v10, 2
60
59
; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
60
+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
61
61
; RV64-NEXT: vand.vi v10, v10, 1
62
62
; RV64-NEXT: vmsne.vi v0, v10, 0
63
63
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -95,8 +95,8 @@ define void @vselect_vx_v6i32(i32 %a, ptr %b, ptr %cc, ptr %z) {
95
95
; RV32-NEXT: vslide1down.vx v10, v10, a1
96
96
; RV32-NEXT: vslide1down.vx v10, v10, a4
97
97
; RV32-NEXT: vslide1down.vx v10, v10, a2
98
- ; RV32-NEXT: vslidedown.vi v10, v10, 2
99
98
; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
99
+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
100
100
; RV32-NEXT: vand.vi v10, v10, 1
101
101
; RV32-NEXT: vmsne.vi v0, v10, 0
102
102
; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -126,8 +126,8 @@ define void @vselect_vx_v6i32(i32 %a, ptr %b, ptr %cc, ptr %z) {
126
126
; RV64-NEXT: vslide1down.vx v10, v10, a1
127
127
; RV64-NEXT: vslide1down.vx v10, v10, a4
128
128
; RV64-NEXT: vslide1down.vx v10, v10, a2
129
- ; RV64-NEXT: vslidedown.vi v10, v10, 2
130
129
; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
130
+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
131
131
; RV64-NEXT: vand.vi v10, v10, 1
132
132
; RV64-NEXT: vmsne.vi v0, v10, 0
133
133
; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -166,8 +166,8 @@ define void @vselect_vi_v6i32(ptr %b, ptr %cc, ptr %z) {
166
166
; RV32-NEXT: vslide1down.vx v10, v10, a0
167
167
; RV32-NEXT: vslide1down.vx v10, v10, a3
168
168
; RV32-NEXT: vslide1down.vx v10, v10, a1
169
- ; RV32-NEXT: vslidedown.vi v10, v10, 2
170
169
; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
170
+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
171
171
; RV32-NEXT: vand.vi v10, v10, 1
172
172
; RV32-NEXT: vmsne.vi v0, v10, 0
173
173
; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -197,8 +197,8 @@ define void @vselect_vi_v6i32(ptr %b, ptr %cc, ptr %z) {
197
197
; RV64-NEXT: vslide1down.vx v10, v10, a0
198
198
; RV64-NEXT: vslide1down.vx v10, v10, a3
199
199
; RV64-NEXT: vslide1down.vx v10, v10, a1
200
- ; RV64-NEXT: vslidedown.vi v10, v10, 2
201
200
; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
201
+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
202
202
; RV64-NEXT: vand.vi v10, v10, 1
203
203
; RV64-NEXT: vmsne.vi v0, v10, 0
204
204
; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -236,8 +236,8 @@ define void @vselect_vv_v6f32(ptr %a, ptr %b, ptr %cc, ptr %z) {
236
236
; RV32-NEXT: vslide1down.vx v10, v10, a1
237
237
; RV32-NEXT: vslide1down.vx v10, v10, a4
238
238
; RV32-NEXT: vslide1down.vx v10, v10, a2
239
- ; RV32-NEXT: vslidedown.vi v10, v10, 2
240
239
; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
240
+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
241
241
; RV32-NEXT: vand.vi v10, v10, 1
242
242
; RV32-NEXT: vmsne.vi v0, v10, 0
243
243
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -267,8 +267,8 @@ define void @vselect_vv_v6f32(ptr %a, ptr %b, ptr %cc, ptr %z) {
267
267
; RV64-NEXT: vslide1down.vx v10, v10, a1
268
268
; RV64-NEXT: vslide1down.vx v10, v10, a4
269
269
; RV64-NEXT: vslide1down.vx v10, v10, a2
270
- ; RV64-NEXT: vslidedown.vi v10, v10, 2
271
270
; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
271
+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
272
272
; RV64-NEXT: vand.vi v10, v10, 1
273
273
; RV64-NEXT: vmsne.vi v0, v10, 0
274
274
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -306,8 +306,8 @@ define void @vselect_vx_v6f32(float %a, ptr %b, ptr %cc, ptr %z) {
306
306
; RV32-NEXT: vslide1down.vx v10, v10, a0
307
307
; RV32-NEXT: vslide1down.vx v10, v10, a3
308
308
; RV32-NEXT: vslide1down.vx v10, v10, a1
309
- ; RV32-NEXT: vslidedown.vi v10, v10, 2
310
309
; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
310
+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
311
311
; RV32-NEXT: vand.vi v10, v10, 1
312
312
; RV32-NEXT: vmsne.vi v0, v10, 0
313
313
; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -337,8 +337,8 @@ define void @vselect_vx_v6f32(float %a, ptr %b, ptr %cc, ptr %z) {
337
337
; RV64-NEXT: vslide1down.vx v10, v10, a0
338
338
; RV64-NEXT: vslide1down.vx v10, v10, a3
339
339
; RV64-NEXT: vslide1down.vx v10, v10, a1
340
- ; RV64-NEXT: vslidedown.vi v10, v10, 2
341
340
; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
341
+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
342
342
; RV64-NEXT: vand.vi v10, v10, 1
343
343
; RV64-NEXT: vmsne.vi v0, v10, 0
344
344
; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -377,8 +377,8 @@ define void @vselect_vfpzero_v6f32(ptr %b, ptr %cc, ptr %z) {
377
377
; RV32-NEXT: vslide1down.vx v10, v10, a0
378
378
; RV32-NEXT: vslide1down.vx v10, v10, a3
379
379
; RV32-NEXT: vslide1down.vx v10, v10, a1
380
- ; RV32-NEXT: vslidedown.vi v10, v10, 2
381
380
; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
381
+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
382
382
; RV32-NEXT: vand.vi v10, v10, 1
383
383
; RV32-NEXT: vmsne.vi v0, v10, 0
384
384
; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -408,8 +408,8 @@ define void @vselect_vfpzero_v6f32(ptr %b, ptr %cc, ptr %z) {
408
408
; RV64-NEXT: vslide1down.vx v10, v10, a0
409
409
; RV64-NEXT: vslide1down.vx v10, v10, a3
410
410
; RV64-NEXT: vslide1down.vx v10, v10, a1
411
- ; RV64-NEXT: vslidedown.vi v10, v10, 2
412
411
; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
412
+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
413
413
; RV64-NEXT: vand.vi v10, v10, 1
414
414
; RV64-NEXT: vmsne.vi v0, v10, 0
415
415
; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
0 commit comments